«Мы будем использовать мощь машинного обучения, чтобы позволить людям искать информацию, получать к ней доступ и взаимодействовать с ней более естественным путем. При этом будет затрачиваться намного меньше усилий», — обещает технический директор Microsoft по ИИ Дэвид Кю. Он также заявил, что открытие центра в Беркли поднимет голосовые технологии на новый уровень.
В Microsoft отмечают, что современные голосовые помощники научились хорошо выполнять команды. Но они по-прежнему не могут поддерживать разговор в какой бы то ни было осмысленной форме. Суть технологий Semantic Machines в том, чтобы алгоритм держал в «голове» весь диалог и понимал контекст. MS утверждает, что специалисты Semantic Machines научили машины разбираться в диалоге, понимать о чем идет речь, делая разговор с ИИ более естественным. Теперь все наработки компании стоит ждать в продуктах MS.
Кю говорит, что только в форме естественного диалога цифровые помощники смогут принести настоящую пользу. А пока все ограничивается выполнением односложных команд, этот инструмент нельзя считать полноценным ассистентом. С другой стороны, можно вспомнить, какой шум подняла презентация помощника Google Duplex. СМИ не исключают, что запись диалога ИИ и администратора ресторана могла быть фейком. Но, несмотря на это, волна общественно возмущения позволила понять, что люди по-прежнему испытывают очень смешанные чувства относительно роботов, которые слишком умело имитируют жизнь.
Как только Google представила новые возможности своего ассистента, компанию сразу же обвинили в отсутствии этических принципов. Робот на одном конце трубки говорил настолько естественно, что абсолютно невозможно было понять, алгоритм это или человек. И такая естественность не очень понравилась СМИ. В итоге компанию вынудили добавить функцию предупреждения: Duplex перед стартом диалога будет говорить, что он робот.
Может, Кю и думает, что естественный разговор с ИИ принесет больше пользы и эффективности, но случай с Google показал, что люди все еще боятся машин, неотличимых от людей. Если голосовые помощники будут слегка туповатыми, то у людей будет меньше поводов для волнения. Но в таком случае неясно, зачем разрабатывать ИИ, идеально моделирующий человеческую речь, а потом постоянно принижать его, заставляя предупреждать людей, что он робот.