На конференции WWDC 2024 компания Apple представила новую персональную интеллектуальную систему Apple Intelligence, которая внедряет мощные генеративные модели прямо в ядро «айфона», «айпада» и «мака». Пользователю обещают массу новых возможностей, включая генерацию текстов и изображений. Apple Intelligence станет доступна на iPhone 15 Pro, а также на «айпадах» и «маках» с чипом М1 и далее.
Достанется ИИ и Siri — голосовой помощник сможет искать по запросу определенную информацию в переписке или снимок человека в архиве фотографий. Кроме того, БЯМ поможет Siri лучше понимать и отвечать на вопросы людей. А если не справится сама, то перенаправит запрос чатботу ChatGPT.
Новость об интеграции технологии ИИ OpenAI в операционную систему Apple вызвала бурный протест со стороны Илона Маска, давнего критика Apple и сооснователя, а ныне конкурента OpenAI. Глава Tesla, SpaceX и владелец Х указал на неприемлемость такого шага с точки зрения безопасности.
«Если Apple интегрирует OpenAI на уровне ОС, то в моих компаниях устройства Apple будут запрещены. Это неприемлемое нарушение безопасности», — написал Маск в Х. И добавил, что посетителям придется сдавать айфоны при входе на хранение в клетки Фарадея, чтобы блокировать электромагнитные сигналы.
Маск не единственный, кто высказал обеспокоенность нововведениями в контексте защиты данных. Авторитетный хакер и эксперт по кибербезопасности, скрывающийся под псевдонимом Pliny the Prompter, назвал этот шаг «дерзким», но потенциально рискованным, учитывая современный уровень безопасности ИИ.
В прошлом Apple всегда строго блюла интересы пользователей и продолжает настаивать, что OpenAI станет так же уважительно относиться к защите данных, пишет Venture Beat. Но принимая во внимание отсутствие досконального понимания происходящего в «сознании» мощной генеративной модели, фактически, Apple добровольно размещает в самом центре своей операционной системы черный ящик и надеется, что ничего плохого не произойдет. Хотя знает, что даже самые передовые современные модели ИИ совершают ошибки и подвержены манипуляциям.
Большие языковые модели (БЯМ), обеспечивающие работу генеративных платформ вроде ChatGPT, дают разные ответы на один и тот же вопрос теста на логику и не исправляются, даже если в их распоряжении появляется дополнительный контекст. К таким выводам пришли исследователи из Британии, проверившие когнитивные способности БЯМ.