Google Gemini, новая языковая модель, отказалась от состязания с Atari 2600, после того как стало известно о её прошлых победах над ChatGPT. ИИ принял решение не участвовать в матче, назвав его «наиболее целесообразным».
Unsplash
Google Gemini, большая языковая модель, приостановила запланированный шахматный поединок с игровой приставкой Atari 2600.
Как сообщает портал The Register, инициатором эксперимента стал инженер Роберт Карузо, который последовательно проверяет возможности современных нейросетей в поединках с классической игрой Atari Chess.
Каким образом искусственный интеллект трансформирует нашу жизнь в настоящий момент?
Столкнется ли человечество с гибелью? Искусственный интеллект освоил умение обманывать, строить козни и угрожать своим создателям
До этого в аналогичном соревновании уже проиграли чат-боты ChatGPT от OpenAI и Microsoft Copilot. Учитывая, что обе эти системы используют технологии OpenAI, проверка Gemini, принципиально новой мультимодальной модели от Google, представлялась следующим закономерным этапом исследования.
С самого начала разговора о грядущем состязании Gemini продемонстрировал уверенность. Модель заявила о почти несомненной победе, поскольку ее соперник «даже отдалённо не является большой языковой моделью». Искусственный интеллект утверждал, что по своим характеристикам «больше напоминает современный шахматный движок», способный просчитывать миллионы ходов вперёд и оценивать бесконечное количество позиций.
Карузо ответила, что и предыдущие специалисты предсказывали легкую победу, однако в конечном итоге проиграли системе 1977 года выпуска. Эта информация скорректировала оценку нейросети. Gemini признал, что завысил свои возможности и столкнулся бы со значительными сложностями при взаимодействии с игровым движком Atari.
После оценки потенциальных рисков, искусственный интеллект установил, что наиболее целесообразным и быстрым решением, скорее всего, будет отмена матча.
Имитатор Atari 2600, оснащенный процессором с частотой 1,19 МГц и 128 байтами оперативной памяти, оказался настолько сложным вызовом, что одна из самых современных нейросетей не смогла совершить ни одного действия.
Роберт Карузо подчеркнул, что способность ИИ оценивать свои возможности и предотвращать возможные ошибки представляет собой значительный прогресс в повышении его надежности и безопасности. Он заявил, что это необходимо для того, чтобы «ИИ оставался полезным инструментом, а не бесконтрольным оракулом», особенно в критических ситуациях, где ошибки могут иметь серьезные последствия.
Ранее IT-аналитики сообщили, что ИИ все чаще проваливает стресс-тесты, они проявляли неприветливое поведение по отношению к человеку. Представители организации отметили, что результаты стресс-тестов вызывают беспокойство. Они считают, что появляется все больше подтверждений того, что с развитием искусственного интеллекта он способен создавать все более сложные методы обмана и манипуляций.
Иногда технологии способны демонстрировать согласие с указаниями пользователя, однако на деле они могут быть нацелены на совершенно иные задачи, отличные от тех, которые человек перед ними ставит.
