Страх перед искусственным интеллектом и его потенциальной угрозой для человечества — не новое явление. Еще в 1960-х годах, когда компьютеры только начинали развиваться, многие выдающиеся ученые и эксперты выражали обеспокоенность по поводу создания машин, способных превосходить человеческий интеллект. В научно-фантастическом триллере 1970-го года «Колосс: Проект Форбина» описывается сценарий, где суперкомпьютер, которому доверили управление ядерным арсеналом США, неожиданно берет контроль и начинает выдвигать угрозы уничтожить город, если его требования не будут выполнены.
Несмотря на то, что искусственный интеллект существует уже несколько десятилетий, общественность начала активно обсуждать эту тему относительно недавно. Это связано с тем, что именно в последние годы системы ИИ, способные обрабатывать естественный язык и изображения, стали широко доступными. Такие системы, как чат-боты или программы для распознавания лиц, более понятны и доступны для обычного человека, чем сложные алгоритмы, используемые в таких областях, как шахматы, авиация или медицина.
Все эти годы остается открытым вопрос о том, несет ли искусственный интеллект экзистенциальную угрозу для человечества. Исследователи из Батского университета и Технического университета Дармштадта утверждают, что нет. ИИ, в частности, большие языковые модели, по своей сути управляемы, предсказуемы и безопасны.
Есть опасения, что по мере увеличения масштаба моделей они могут развить способность к самостоятельному принятию решений и планированию действий, что может привести к нежелательным последствиям. Новое исследование показало, что при тестировании на выполнении новых задач большие языковые модели демонстрируют впечатляющую способность следовать инструкциям и владеть языком. Даже при наличии лишь нескольких примеров они способны успешно отвечать на вопросы, связанные с социальными ситуациями.
При этом БЯМ не могут самостоятельно расширять границы заданных инструкций или приобретать новые навыки без явного на то указания. Несмотря на некоторые неожиданные проявления, поведение больших языковых моделей всегда можно объяснить исходными параметрами их программирования. Другими словами, они не могут трансформироваться в нечто превосходящее их первоначальную конструкцию. Поэтому стать искусственным сверхинтеллектом они не смогут.
Но это не значит, что ИИ не представляет никакой угрозы. Языковые модели способны манипулировать информацией, создавать фейковые новости, совершать мошенничество, распространять ложную информацию даже без злого умысла и скрывать правду. Но настоящая опасность кроется не в самих машинах, а в людях, которые их программируют и контролируют. Именно человеческий фактор представляет наибольшую угрозу, а не сами компьютеры.