Нейронные сети глубокого обучения обычно работают на серверах, на задней стороне Интернета. Ваш следующий IPhone будет еще лучше угадывать, что вы хотите напечатать, до того, как вы это напечатаете. Так утверждают технологи из Apple.
Допустим, вы используете слово “играть” в текстовом сообщении. В последней версии мобильной операционной системы iOS “мы сможем автоматически определять разницу между командой Orioles, которая играет в плей-офф, и детьми, которые играют в парке”, – сказал старший вице-президент Apple Крейг Федериги в понедельник утром во время своего выступления на ежегодной Всемирной конференции разработчиков.
Как и многие другие крупные технологические компании, Apple использует глубокие нейронные сети – сети аппаратного и программного обеспечения, которые могут обучаться, анализируя огромные объемы данных. В частности, Apple использует нейронные сети с “долговременной кратковременной памятью”, или LSTM. Они могут “запоминать” начало разговора, пока читают его конец, что позволяет им лучше улавливать контекст. Google использует аналогичный метод для работы функции Smart Reply, которая предлагает ответы на сообщения электронной почты. Но “QuickType” от Apple – так компания называет свою версию – показывает, что Apple не только продвигает ИИ на персональные устройства, но и делает это сильнее, чем Федериги позволяет себе говорить.
Сегодня на своём сайте компания Apple также представила интерфейс прикладного программирования, или API, который позволяет сторонним компаниям и кодерам использовать подобную разновидность нейронных сетей. Этот инструмент, Basic Neural NetworkSubroutines, представляет собой “коллекцию функций, которые вы можете использовать для построения нейронных сетей” на широком спектре операционных систем Apple, включая iOS, а также OS X (для настольных компьютеров и ноутбуков), tvOS (для телевизоров) и watchOS (для часов), говорится в документации. “Они делают все возможное, чтобы люди могли добавлять нейронные сети в свои приложения”, – говорит Крис Николсон, генеральный директор и основатель компании Skymind, специализирующейся на глубоком обучении. Пока что BNNS лучше справляется с идентификацией изображений, чем с пониманием естественного языка. Но в любом случае, нейронные сети обычно не работают на ноутбуках и телефонах. Они работают на компьютерных серверах на другом конце Интернета, а затем передают свои результаты на устройства по проводам. (Компания Google только что сообщила, что она создала специализированный чип, который выполняет нейронные сети в своих центрах обработки данных перед отправкой результатов на ваш телефон). Apple хочет, чтобы программисты создали нейронные сети, которые будут работать даже без подключения к сети – и это необычно. Google и IBM уже экспериментировали с этой идеей, но Apple делает это сейчас.
Это может не сработать. Apple не предоставляет способ обучения нейронной сети, когда она фактически обучается задаче, анализируя данные. Новый API Apple – это просто способ выполнения нейронной сети после ее обучения. По словам Николсона, кодерам придется справляться с этим самостоятельно или использовать предварительно обученные модели из других источников.