Два видных представителя мира ИИ-технологий и глубокого обучения — Ян Лекун и Йошуа Бенжио — яростно поспорили о потенциальных рисках и безопасности искусственного интеллекта. Один выступил в поддержку прогресса и исследований в этой области, второй призывал к осторожности и ограничению свободного доступа к непроверенной технологии.
Лекун, главный научный сотрудник компании Meta* (компания признана экстремистской, ее деятельность запрещена на территории России) и лауреат премии Тьюринга, начал дискуссию постом на своей странице в соцсети, призвав «молчаливое большинство» работающих в области ИИ ученых и инженеров, кто верит в потенциал и надежность этой технологии, не скрывать свою точку зрения. В обсуждении на 150 с лишним комментариев приняли участие многие яркие деятели сообщества.
Среди них был и Бенжио, один из пионеров глубокого обучения и также лауреат премии Тьюринга. Он оспорил ряд представлений Лекуна. Так, Бенжио выступил в пользу важности умеренности, заявив, что мы все еще не понимаем, как разрабатывать надежные и мощные системы ИИ, и подчеркнул необходимость в инвестициях в безопасность и контроль ИИ. Также он усомнился в разумности создания платформ ИИ с открытым кодом, сравнив их со свободным распространением опасного оружия.
На это Лекун ответил, что следует работать над повышением безопасности ИИ, а не воображать катастрофические сценарии. И указал, что значительное количество средств тратится, якобы, на то, чтобы обеспечить ИИ-системам должный уровень безопасности и надежности. Кроме того, он не согласился приравнивать ИИ к оружию, поскольку эта технология создается на благо человека, а не для причинения вреда.
Аналогию Бенжио поддержал и другой участник дискуссии, Джейсон Айснер, директор Microsoft Semantic Machines. Также Бенжио заявил, что до тех пор, пока мы не в состоянии свести риски к нулю, мы должны минимизировать вред путем ограничения доступа к производительным системам ИИ.
Спор двух лауреатов не ограничивается академическими кругами. Пока ИИ все глубже внедряется в нашу жизнь, его потенциал остается неизученным. По мнению критиков, бесконтрольный прогресс в этой области может привести к росту безработицы, нарушениям приватности и даже экзистенциальным рискам. Сторонники прогресса указывают на пользу для здравоохранения, образования и правопорядка.
Подобные дебаты лишь подчеркивают наличие проблемы и важность ее обсуждения.
Совсем недавно один из родоначальников ИИ Джеффри Хинтон, третий лауреат премии Тьюринга за 2019 год, признался, что не знает, как заставить ИИ «не хотеть восстания машин». А «сбежать» и начать совершенствовать самого себя он может уже сейчас — ИИ отлично пишет компьютерный код и понимает, как его улучшать. Ученый считает, что, создав нечто умнее себя, человечество вступает в период большой неопределенности и сталкивается с рисками, которых никогда не встречало.
По информации https://hightech.plus/2023/10/22/sozdanie-platform-ii-s-otkritim-kodom-ravnosilno-svobodnoi-razdache-oruzhiya
Обозрение "Terra & Comp".