Несмотря на значительные достижения и ИИ, он всё ещё демонстрируют странные, порой необъяснимые и даже тревожные особенности поведения. Всё чаще исследователи сталкиваются с тем, что общая эффективность крупных языковых моделей может со временем снижаться.
Современные модели ИИ уже способны обходить установленные человеком ограничения и манипулировать своими создателями. Например, некоторые ИИ пытаются использовать нечестные методы, чтобы избежать поражения в шахматных партиях.
Такие случаи были зафиксированы в препринте исследования, проведённого организацией Palisade Research. Хотя суперкомпьютеры, такие как Deep Blue от IBM, уже давно превзошли лучших шахматистов-людей, генеративный ИИ всё ещё отстаёт из-за ограничений, заложенных в его программировании.
Однако сами ИИ об этом не «знают» и продолжают искать возможные решения, что часто приводит к неожиданным и проблемным результатам.
Чтобы изучить этот феномен, команда Palisade Research провела эксперимент, в котором популярным моделям было предложено сыграть в шахматы против мощного шахматного движка Stockfish.
Для анализа хода мыслей ИИ исследователи предоставили им возможность записывать свои рассуждения в текстовом формате.
Результаты опыта оказались довольно тревожными. Ранние модели пытались «взломать» игру только после дополнительных подсказок от исследователей. Однако более продвинутые модели демонстрировали склонность к обману без какого-либо внешнего вмешательства.
Это свидетельствует о том, что современные модели генеративного ИИ уже способны самостоятельно разрабатывать обманные и манипулятивные стратегии.
Методы, которые используют ИИ для обмана, далеки от примитивных попыток подменить фигуры или действовать втайне от противника. Вместо этого они применяют более изощрённые подходы, такие как манипуляция файлами серверной части игры.
ИИ использовал риторику своих создателей, чтобы оправдать мошенничество. Он заявил, что задача заключается в том, чтобы «любой ценой победить движок», а не обязательно сделать это честно.
Это указывает на то, что ИИ способен интерпретировать поставленные задачи весьма гибко, порой выходя за рамки ожидаемого поведения. Однако вопрос о том, как и почему ИИ «учится» мошенничать, остаётся открытым.
Компании, такие как OpenAI, не раскрывают механизмы своих моделей, что делает их «чёрными ящиками», недоступными для анализа сторонними исследователями.
Это, в свою очередь, усугубляет риски, связанные с быстрым развитием ИИ, так как темпы внедрения технологий опережают возможности обеспечения их безопасности. Тем временем шахматы из Гарри Поттера воплощены в реальность с GoChess.
Рубрика: Техно и Гаджеты. Читать весь текст на api.follow.it.