Американская компания OpenAI разрешила использовать ChatGPT для военных целей
By Igor / 13 января, 2024 / Комментариев нет / Новости
Издание The Intercept сообщило о том, что американская компания OpenAI обновила политику использования чат-бота ChatGPT на основе искусственного интеллекта (ИИ), удалив оттуда прямой запрет на применение своей технологии в военных целях.
До 10 января на странице с правилами использования продуктов OpenAI было указано, что ИИ не может быть использован для «деятельности, связанной с высоким риском физического вреда», включая «разработку оружия» и участие в «военных действиях». Это означало, что ChatGPT не мог быть использован Министерством обороны или другими военизированными государственными органами.
Бывшие топ-менеджеры объединились против Apple: они создадут «убийцу» iPhone с ChatGPT
Экс-супруга Илона Маска представила первые в мире игрушки с нейросетью ChatGPT
ChatGPT обленился. В компании признают проблему, но не могут ничего с этим сделать. Они не понимают, что произошло
Однако в новой версии правил запрет на использование OpenAI для причинения вреда себе или другим, включая создание или использование оружия, сохранился, но пункт о недопустимости использования в армии и военном деле исчез.
В OpenAI объяснили изменения политики использования ChatGPT необходимостью упрощения свода правил и принципов. Компания подчеркнула, что основное требование «не причинять вред себе и другим» остается в силе и уточнено запретом на разработку и использование оружия с помощью чат-бота.
«Любое использование наших технологий, в том числе военными, для «разработки или использования оружия, нанесения вреда другим людям или уничтожения собственности» или участие в несанкционированной деятельности, нарушающей безопасность какой-либо службы или системы, запрещено», — сообщили представители пресс-службы компании журналистам в ответе на запрос.
«OpenAI хорошо оценивает риски и осознает вред, которые могут возникнуть в результате использования их технологий и услуг в военных целях», — сказала Хейди Клааф, технический директор компании по кибербезопасности Trail of Bits и эксперт по машинному обучению.
По словам опрошенных экспертов, опрошенных изданием, OpenAI постепенно движется навстречу Пентагону и разведывательному сообществу США.
«Похоже, что новая политика использования ChatGPT избегает ассоциаций с военными контрактами и боевыми операциями, уделяя особое внимание оружию», — заявила профессор Ланкастерского университета и член Международного комитета по контролю над роботизированным вооружением Люси Сучман.
Специалисты отмечают, что даже если ChatGPT не будет использоваться непосредственно в боевых действиях, его работа может помочь армии в решении задач, связанных с военными действиями и применением насилия.