Hitech logo

Идеи

Новое исследование не обнаружило в БЯМ угрозы для людей

TODO:
Екатерина Смирнова19 августа, 08:44

Искусственный интеллект может быть менее страшной экзистенциальной угрозой, чем принято считать. Новое исследование показывает, что большие языковые модели (БЯМ) способны лишь следовать инструкциям и не могут самостоятельно развивать новые навыки. Ученые утверждают, что такие модели «управляемы, предсказуемы и безопасны». Несмотря на страхи по поводу ИИ, возникшие еще в 1960-х годах, настоящая опасность заключается не в самих машинах, а в том, как люди их используют.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Страх перед искусственным интеллектом и его потенциальной угрозой для человечества — не новое явление. Еще в 1960-х годах, когда компьютеры только начинали развиваться, многие выдающиеся ученые и эксперты выражали обеспокоенность по поводу создания машин, способных превосходить человеческий интеллект. В научно-фантастическом триллере 1970-го года «Колосс: Проект Форбина» описывается сценарий, где суперкомпьютер, которому доверили управление ядерным арсеналом США, неожиданно берет контроль и начинает выдвигать угрозы уничтожить город, если его требования не будут выполнены.

Несмотря на то, что искусственный интеллект существует уже несколько десятилетий, общественность начала активно обсуждать эту тему относительно недавно. Это связано с тем, что именно в последние годы системы ИИ, способные обрабатывать естественный язык и изображения, стали широко доступными. Такие системы, как чат-боты или программы для распознавания лиц, более понятны и доступны для обычного человека, чем сложные алгоритмы, используемые в таких областях, как шахматы, авиация или медицина.

Все эти годы остается открытым вопрос о том, несет ли искусственный интеллект экзистенциальную угрозу для человечества. Исследователи из Батского университета и Технического университета Дармштадта утверждают, что нет. ИИ, в частности, большие языковые модели, по своей сути управляемы, предсказуемы и безопасны.

Есть опасения, что по мере увеличения масштаба моделей они могут развить способность к самостоятельному принятию решений и планированию действий, что может привести к нежелательным последствиям. Новое исследование показало, что при тестировании на выполнении новых задач большие языковые модели демонстрируют впечатляющую способность следовать инструкциям и владеть языком. Даже при наличии лишь нескольких примеров они способны успешно отвечать на вопросы, связанные с социальными ситуациями.

При этом БЯМ не могут самостоятельно расширять границы заданных инструкций или приобретать новые навыки без явного на то указания. Несмотря на некоторые неожиданные проявления, поведение больших языковых моделей всегда можно объяснить исходными параметрами их программирования. Другими словами, они не могут трансформироваться в нечто превосходящее их первоначальную конструкцию. Поэтому стать искусственным сверхинтеллектом они не смогут.

Но это не значит, что ИИ не представляет никакой угрозы. Языковые модели способны манипулировать информацией, создавать фейковые новости, совершать мошенничество, распространять ложную информацию даже без злого умысла и скрывать правду. Но настоящая опасность кроется не в самих машинах, а в людях, которые их программируют и контролируют. Именно человеческий фактор представляет наибольшую угрозу, а не сами компьютеры.