Google: «Бояться ИИ можно только из-за человеческих ошибок»
Logo
Cover

На AI Summit в Лондоне специально назначенный специалист по имиджу искусственного интеллекта Google попыталась успокоить тех, кто боится восстания роботов. Все проблемы ИИ коренятся в создающих его людях, считает компания.

За последние пять лет Кэсси Козырьков занимала различные технические посты в Google, но теперь ей досталась необычная должность «главного ученого по принятию решений». На деле это означает, что Козырьков помогает компании продвигать положительный образ искусственного интеллекта — или, как минимум, убеждать людей в том, что ИИ не так уж плох, пишет VentureBeat.

Читая в новостях про отнимающих рабочие места роботов, подслушивающих умных помощников и другие опасности машин, легко поверить в то, что ИИ — самая страшная угроза существованию человечества за всю его историю. Однако, по словам Кэсси Козырьков, это не так: ИИ — не более чем инструмент человека, воплощающий его мечты.

«История человечества — это история автоматизации, — заявила она во время саммита. — Вся история человечества заключается в том, чтобы делать вещи лучше — от самого первого момента, когда кто-то поднял камень и ударил им о другой камень, потому что так можно добиться цели быстрее. Мы вид, использующий инструменты; мы ненавидим тяжелую работу».

На самом деле, люди боятся ИИ не потому, что он справляется с работой эффективнее, а потому, что он может стать орудием в руках правительств, корпораций и других нечистых на руку сил.

Другие опасаются предвзятости алгоритмов и их непрозрачности — люди доверяют им принимать важные решения, но что если ИИ ошибется или сделает неверный вывод? Об этой опасности в последнее время часто говорит сенатор и кандидат в президенты Элизабет Уоррен, но гораздо меньше внимания привлекает возможность ИИ сократить уже существующую среди людей предвзятость. К примеру, в судах Сан-Франциско будут использовать ИИ, чтобы автоматически убирать часть информации из полицейских рапортов (расовую принадлежность, образование, возраст). Это должно повысить справедливость слушания дела.

Вся предвзятость, которую демонстрирует сейчас ИИ, такая же, как и у людей — данные, на которых обучаются алгоритмы, точно такие же, как книги и статьи, на которых воспитаны мы сами. Все стереотипы, которые есть у авторов и редакторов, просачиваются в художественные произведения и новости, и заметить их можно лишь потом, когда они уже оказали свое разрушительное воздействие, не без оснований утверждает Кэсси Козырьков.

Решить эту проблему может разнообразие точек зрения. Чем больше различных глаз увидят данные, чем больше людей задумается о последствиях использования собранных примеров, тем вероятнее удастся выловить элементы предвзятости. Поэтому, считает Козырьков, многообразие взглядов в ИИ — не желаемый, а необходимый параметр.

«Пришло время сфокусироваться на обучении машин, а не на машинном обучении, — отметила она. — Не дайте риторике научной фантастики отвлечь вас от вашей ответственности и от тех людей, кто стоит за ИИ с самого начала. Цели ставят лидеры, наборы данных собирают инженеры, проверяют аналитики и начальники, тесты выполняют специалисты по математической статистике, а сетки безопасности строят инженеры по надежности — во всем этом много человеческого элемента».