Hitech logo

Кейсы

Microsoft предлагает DALL-E Пентагону для обнаружения целей

TODO:
Дарина Житова12 апреля, 17:30

Генеративные ИИ для создания изображений не так безобидны, как кажется. Они могут не только производить дипфейки, но и помогать тренировать системы управления боевыми действиями, а также определять цели ударов. Для этого DALL-E от OpenAI предложили американской армии. Раньше компания Сэма Альтмана была против использования ИИ в военных целях, но её политика изменилась после инвестиций от Microsoft.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

В октябре 2023 года на презентации в Пентагоне Microsoft обозначила возможности использования DALL-E в военной сфере. Компания активно сотрудничает с американскими военными: например, ранее она предлагала им использовать свой продукт HoloLens. Сейчас она ищет способы интегрировать искусственный интеллект в военные технологии.

Системы управления боевыми действиями (BMS) предоставляют руководству армии данные для планирования военных операций, включая движение войск и назначение целей для артиллерии и авиации. Microsoft предложила использовать DALL-E для создания искусственных изображений, которые улучшат визуализацию боевой обстановки и помогут системам точнее определять цели.

Воздушные силы США разрабатывают систему JADC2, которая должна обеспечивать интеграцию данных со всех видов войск, включая данные с беспилотников, радаров и танков, для координации военных действий. Microsoft видит потенциал DALL-E как инструмент для обучения этой системы.

Несмотря на представление возможностей технологии, Microsoft подчеркивает, что обучение с использованием DALL-E ещё не начато. Оно рассматривается как потенциальное направление развития. OpenAI отмечает, что не участвовала в презентации и не информирована о таком использовании своих технологий. Любые сделки с военными будут регулироваться политикой Microsoft.

Эксперты и аналитики подчеркивают, что решение о применении технологий в военных целях принимается на политическом уровне, а не компанией-разработчиком. Также существуют опасения насчет надежности и точности генеративных моделей ИИ в ПО для военных. Например, Хайди Хлааф, инженер по безопасности машинного обучения, ранее работавшая в OpenAI, говорит: «Эти генеративные модели изображений даже не могут сгенерировать правильное количество конечностей или пальцев. Как мы можем полагаться на их точность в отношении событий на поле боя?».