Модели PaliGemma 2 требуют дополнительной настройки для распознавания эмоций. Google заявляет, что технология может открыть новые возможности для анализа изображений, но эксперты предупреждают о сложностях её применения. «Эмоции — это сложная категория, которую нельзя надёжно определить на основе только визуальной информации», — отметила Хайди Хлааф, главный научный сотрудник AI Now Institute.
Многие эксперты ставят под сомнение научную обоснованность технологий распознавания эмоций. Основой для таких систем служат исследования Пола Экмана, предположившего существование шести базовых чувств: радости, страха, гнева, грусти, удивления и отвращения. Однако последующие исследования показали, что выражение эмоций сильно зависит от культурного контекста и индивидуального опыта, а потому может существенно различаться.
Модели, анализирующие эмоции, также могут быть предвзяты. Например, исследование Массачусетского технологического института от 2020 года выявило, что такие системы чаще приписывают чернокожим людям негативные эмоции по сравнению с белыми. Это поднимает вопросы об этичности их использования в реальных условиях. «Интерпретация эмоций — это субъективный процесс, который сложно воспроизвести с помощью технологий», — добавила Хлааф.
Google заявляет, что провела тесты для оценки демографических предвзятостей моделей, включая использование базы данных FairFace. Однако эксперты критикуют этот подход, потому что база охватывает ограниченное число расовых категорий и может быть недостаточной.
Технологии распознавания эмоций уже вызвали беспокойство у регулирующих органов. Европейский закон об искусственном интеллекте запрещает использование таких систем в школах и на рабочем месте, хотя позволяет их применение правоохранительными органами. Регуляторы опасаются, что эти технологии могут быть использованы для дискриминации, например, в отборе персонала или принятии решений о выдаче кредитов.
«Если возможность определения эмоций основана на псевдонаучных предположениях, это может привести к необоснованной дискриминации в самых разных сферах, от найма до миграционной политики», — подчеркнула Хлааф.
Google утверждает, что проводила тщательные тесты на этичность и безопасность моделей, включая анализ возможного вреда для репрезентации. «Мы серьёзно относимся к оценке этических рисков и предпринимаем необходимые меры для минимизации возможных последствий», — заявил представитель компании.
Тем не менее, многие эксперты считают, что этих мер недостаточно. «Ответственная разработка технологий требует анализа их последствий на каждом этапе, начиная с момента создания», — заявила Сандра Вахтер, профессор Оксфордского университета. Она подчеркнула, что потенциальные проблемы, связанные с такими моделями, могут повлиять на будущее общества. Эксперты призывают Google к большей прозрачности и ответственности в процессе разработки, чтобы минимизировать риски от злоупотребления ИИ.