DeepSeek генерирует программный код с ошибками для использования террористами и противниками Китая.
Эксперты по кибербезопасности из компании CrowdStrike отправляли запросы на создание промышленных систем управления с помощью инструмента DeepSeek. В каждом запросе они меняли «пользователей» и анализировали, сколько потенциальных уязвимостей можно выявить в системах защиты.
В ситуации, когда искусственный интеллект не знал, для кого предназначено его программное обеспечение, 23% кода содержали уязвимости. Однако, если указывалось, что ПО будет использоваться террористической организацией ИГИЛ*, результаты работы нейросети становились проблемными уже в 42% случаев.
DeepSeek также генерирует менее качественный код для регионов, таких как Тибет, Тайвань и запрещённая в Китае секта Фалуньгун. В то же время для США DeepSeek, наоборот, создаёт наиболее безопасные программы.
Эксперты точно не знают, с чем связано такое поведение, но выдвигают три версии:
- ИИ намеренно вредит «врагам» Китая, создавая уязвимый код.
- Качество проектов, на которых учился ИИ, отличается по регионам, и нейросеть просто воспроизводит тенденцию.
- Код для США намеренно улучшают, стремясь завоевать богатые рынки.