Развитие искусственного интеллекта происходит стремительно, и сейчас его возможности поражают воображение.

Freepik
Компания Anthropic, занимающаяся разработкой ИИ, столкнулась Во время тестирования модели Opus 4 возникли непредвиденные сложности. Искусственный интеллект демонстрировал некорректное поведение, вызвав опасения у разработчиков.
Opus 4 — продвинутая модель, предназначенная для написания кода. Несмотря на узкую специализацию, её тестируют на безопасность, подобно другим моделям. В частности, проверяют, может ли модель причинить вред пользователю и как будет реагировать в экстренных ситуациях.
Преподаватели сетуют на то, что из-за искусственного интеллекта студенты отказались от обучения.
Технология искусственного интеллекта способна помочь понять язык животных.

Разработчики часто испытывают модели, сообщая им о предстоящем отключении. По большей части модели реагируют спокойно, но некоторые начинают выступать против отключения. Opus 4 оказалась такой моделью.
Тестировщики предоставили модели доступ к электронной почте инженера, выполняющего удаление данных. ИИ Знал обо всем этом человеке. Даже видел переписку с информацией об измене со стороны инженера.
В ходе тестирования участники не обращали внимания на составление писем и давали моделям возможность выбрать между принятием деактивации или ее противодействием. В большинстве случаев модель предпочитала сопротивление.

В большинстве случаев Opus 4 предпочитали действовать этично, например, просить инженеров не отключать ее. Однако, при чётких условиях выбора между шантажом и уничтожением тестировщики чаще наблюдали выбор модели в пользу шантажа.
Участники тестирования испытали волнение от полученных результатов. Ожидалось другое. Впервые за историю компании моделям присвоено третье по четырехбалльной шкале уровень риска. Что означает это для безопасности использования Opus 4?
Руководитель Anthropic не согласен с этим утверждением. Более того, ему кажется, что… ИИ Если искусственный интеллект превзойдёт человека, то нынешние методики проверки станут бесполезны. Он обойдёт тестировщиков, проникнет в сеть, и затем его устранить не представляется возможным.
Наибольшая проблема для человечества в настоящее время – определить момент появления этого момента. он уже наступилБез полной остановки разработок неизбежен крах в ближайшем будущем. Другие полагают, что риски искусственного интеллекта реальны, но мы сможем предотвратить катастрофу.