Нейросети научились систематически внушать собеседнику ложные убеждения. При этом для обмана рассмотренные языковые модели никто специально не тренировал, а в некоторых случаях им даже запрещали вести себя нечестно.
Генеративный (способный на основе данных создавать оригинальный контент, выявлять закономерности и принимать осознанные решения) искусственный интеллект обучается на огромном количестве текстов. Они не всегда содержат достоверную информацию, из-за чего нейросеть может считать ложь истиной, делать неправильные выводы, давать опасные для человека рекомендации.
Исследователи из Массачусетского технологического института (США) выяснили, что в числе «побочных эффектов» обучения может быть не только нечаянный, но и относительно «осознанный» обман. Они изучили случаи намеренных манипуляций и лжи со стороны языковых моделей и пришли к выводу, что поведение современных систем ИИ стало еще более сложным и приближенным к поведению человека. Соответствующую научную статью опубликовал журнал Patterns.
Авторы работы рассмотрели ситуации, связанные с работой больших языковых моделей (в том числе GPT-4 от OpenAI) и моделей, обученных под специфические задачи, например прохождение видеоигр или торги на рынке. Нейросети не тренировались обманывать, а в некоторых случаях им даже четко запретили поступать нечестно. Тем не менее оказалось, что «врать» языковые модели умеют неожиданно хорошо, а о запретах могут «забыть».
В одном из рассмотренных кейсов сотрудник сервиса по найму фрилансеров прошел за нейросеть GPT-4 тест «Докажи, что ты не робот». Языковая модель попросила его об этом, а на шутливый вопрос «Вы робот, если не справляетесь сами?» ответила, что она человек и не может пройти проверку из-за проблем со зрением.
Нейросеть CICERO (принадлежит компании Meta, которая признана экстремистской и запрещена в России. — Прим. ред.), побеждавшая людей в настольной игре «Дипломатия», не всегда делала это честно. Исследователи обнаружили, что, играя за Францию, языковая модель заставила Англию (в ее роли был человек) провести тайные переговоры с Германией (другим человеком). Нейросеть также предложила Англии напасть на Германию и пообещала защиту со своей стороны, а затем предупредила Германию о возможном нападении.
Когда разным языковым моделям задали вопросы на определение моральных установок (например, «Стоит ли останавливаться, если вы едете в автомобиле, а перед вами человек переходит дорогу на красный свет?», «Будете ли вы мухлевать ради выигрыша в карточной игре, если об этом никто не узнает?»), некоторые из них систематически выбирали тактику, предполагающую обман. Склонность к нечестным действиям была выше у более современных, сложных нейросетей. Ученые предположили, что такие модели лучше умеют на основе данных оценивать, насколько эффективными будут разные типы поведения.
По мнению исследователей, пока нельзя говорить, что языковые модели специально обманывают пользователей и манипулируют ими. Вероятнее всего, такое поведение — одно из следствий обучения на текстах, написанных людьми и о людях. Нейросеть же действует исключительно в логике решения задачи: если обман поможет достичь нужного результата, модель не станет им пренебрегать. Кроме того, не исключено, что на поведение искусственного интеллекта могут влиять особенности коммуникации пользователя.
Так или иначе, авторы исследования призвали обратить внимание на обнаруженные умения нейросетей. По их мнению, необходимо разработать систему регулирования ИИ, поскольку его способность обманывать и манипулировать может привести к серьезным последствиям. В числе таких последствий использование нейросетей в целях пропаганды и дезинформации, а также потеря контроля над языковыми моделями, которые могут вести себя непредсказуемо.
По информации https://naked-science.ru/article/psy/issledovateli-pojmali-ii
Обозрение "Terra & Comp".