На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

chezasite

19 613 подписчиков

Siri и Assistant: до чего доведут нейросети

Давайте будем честны: презентацию #MadeByGoogle с точки зрения новых девайсов интересной назвать трудно. Google просто «углУбила и расширила» то, что у неё уже было: смартфоны, Chromecast, новые роутеры, и так далее. Но всё же в одном презентация была очень важна. Она стала началом, ни много, ни мало, второго раунда битвы персональных помощников.

По мнению Google, их ассистент готов к полноценной битве с Siri и Cortana, и потому, вместо переобученного Google Now, теперь в бой вступает Google Assistant. И Pixel становятся первыми смартфонами на Android, которые «из коробки» получают зачатки ИИ, и в этом не уступают iPhone.

Именно так: раньше помощники умели просто в «вопрос-ответ». Потом Siri научилась понимать контекст происходящего и шутить. Но контекст был не таким уж и выдающимся, а шутки – повторяющимися и, в целом, однотипными. Да, он умел помнить два-три предыдущих сообщения, но не более. В прошлом году Google и Apple показали, как ассистенты могут считывать информацию с экрана смартфона (что пользователь делает, о том и контекст). Но, опять же, оно было интегрировано в привычные системы голосовых ассистентов.

Теперь же они умеют улавливать нить разговора. Худо-бедно, но умеют. И умеют вспоминать что-то, что отложено у них в памяти. И с каждым диалогом (в буквальном смысле) они будут умнеть. Потому что каждый диалог, каждая беседа для них – это новый опыт, на основе которого они обучаются, хвала нейросетям. И это уже не просто вопрос-ответ, учитывающий предыдущие ответы. Это – беседа (ну, или её зачатки).

Второе, что стало важным – это появление у ассистентов SDK.

Любой разработчик, если захочет, может научить ассистента пользоваться приложением по указанию пользователя. «Отправь сообщение маме через Telegram, напиши, что я доехал до дома» – это есть уже сейчас. Хотя ещё два года назад это казалось если не фантастикой, то делом относительно далёкого будущего.

Доступ к SDK – это действительно большой шаг. Он говорит о том, что ассистенты готовы выходить из песочницы собственной экосистемы и могут сами управлять теми или иными приложениями. Приложение, которое пользуется приложениями! Ну чем не основа сюжета для фильма про восстание машин? А ведь совсем скоро они вообще смогут между собой сами обо всём договариваться, и пользователь просто будет видеть результат их общения. И общаться они будут не на машинно-алгоритмическом языке, а на человеческом – во-первых, так проще будет, при необходимости, отследить их беседы. Во-вторых, это языковая практика – ведь каждый разработчик учил ассистента по-своему, и чем больше они общаются на человеческом языке, тем лучше они его понимают и анализируют.

А представьте себе, что ассистенты не просто развиваются такими темпами, как в последние два года – они умнеют гораздо быстрее с помощью нейросетей и самообучаются. «Сегодня в 7 заедут Илья с Витей, что там есть в холодильнике у нас?» – на такой запрос ассистент, в теории, может не только выдать список продуктов, которые имеются в наличии, но и то, чего не хватает, и что можно было бы докупить, потому что Витя любит одно, а Илья – другое. Откуда он это знает? Так они же в контактах в группе «близкие друзья», а ассистенты пользователей из этой группы обмениваются друг с другом информацией.

Ассистенты станут выполнять роль дворецкого – здравствуй, ДЖАРВИС. И Google сделала свой первый шаг и к этому, продемонстрировав финальную версию своего устройства Home. Это, если можно так выразиться, физическая оболочка голосового помощника – небольшая колонка-медиацентр, которая, потенциально, сможет управлять всей электроникой в доме – сейчас это термостат и освещение, а в ближайшее время это могут быть роботы-пылесосы, умные мультиварки, и так далее. И о том, что такое устройство может быть востребовано, говорит коммерческий успех аналогичной колонки Echo от Amazon.

Однако какими личностями ассистенты станут? Да, про них уместно говорить слово «личность» — потому что это атрибут интеллекта, пусть и искусственного. Так вот, какими они будут? Чему именно они научатся у людей? Ведь для получения информации им открыты почти все ресурсы интернета – а это, как известно, не только Википедия и вальсы Штрауса, но и, скажем так, контент сомнительного качества и содержания. Ещё свеж в памяти пример ИИ Тэй от Microsoft, который всего за сутки стал нацистом-гомофобом, разбрасывающимся грязными ругательствами.

Поэтому сейчас можно сказать однозначно: ИИ нужны учителя, которые научат ассистентов учиться. Эдакие отцы для крошки-сына, которые смогут научить базовым принципам «что такое хорошо и что такое плохо». Нужны лингвисты, которые подскажут нейросети, как нужно учить новый для неё язык. Например, тот же русский даже для живого носителя английского – это сущий кошмар. А уж для робота это вообще может быть чем-то непостижимым, даже если загрузить туда словари Ожегова, Ушакова и Даля и всю школьную программу по литературе. Попробуй понять падежи, рода, спряжения и остальные правила, над которыми человек не задумывается, а для робота могут являться логическим парадоксом.

И уже от того, кто лучше воспитает и корректнее заложит основы для самообучения, станет понятно, кто победил во втором раунде. А пока Google просто пытается не отстать от Apple, и у неё это даже, кажется, получается.

Ссылка на первоисточник
наверх