Самообучающийся искусственный интеллект


Почему у самообучающегося искусственного интеллекта есть проблемы с реальным миром

Новейшие системы ИИ начинают обучение, ничего не зная об игре, и вырастают до мирового уровня за несколько часов. Но исследователи с трудом справляются с применением таких систем за пределами игрового мира


До недавнего времени машины, способные посрамить людей-чемпионов, хотя бы имели уважение использовать человеческий опыт для обучения играм.

Чтобы выиграть у Гарри Каспарова в шахматы в 1997 году, инженеры IBM воспользовались столетиями шахматной мудрости при создании своего компьютера Deep Blue. В 2016 программа AlphaGo проекта Google DeepMind разгромила чемпиона Ли Седоля в древней настольной игре го, обработав миллионы игровых позиций, собранные с десятков тысяч партий между людьми.

Но сейчас исследователи ИИ переосмысливают то, как их боты должны впитывать человеческое знание. Текущую тенденцию можно описать как «да и бог с ним».

В прошлом октябре команда DeepMind опубликовала подробности новой системы игры в го, AlphaGo Zero, вообще не изучавшей игры людей. Она начала с правил игры и играла сама с собой. Первые ходы были совершенно случайными. После каждой игры она принимала новые знания о том, что привело к победе, а что – нет. После этих матчей AlphaGo Zero стравили с уже сверхчеловеческой версией AlphaGo, победившей Ли Седоля. Первая выиграла у второй со счётом 100:0.


Ли Седоль, 18-кратный чемпион мира по го, матч против AlphaGo в 2016-м.

Команда продолжила изыскания и создала следующего гениального игрока в семействе AlphaGo, на этот раз названного просто AlphaZero. В работе, опубликованной на сайте arxiv.org в декабре, исследователи DeepMind раскрыли, как, снова начав с нуля, AlphaZero натренировалась и победила AlphaGo Zero – то есть, она победила бота, победившего бота, победившего лучшего игрока в го в мире. А когда ей дали правила для японских шахмат сёги, AlphaZero быстро обучилась и сумела обыграть лучшие их специально созданных алгоритмов для этой игры. Эксперты удивлялись агрессивному и незнакомому стилю игры программы. «Мне всегда было интересно, на что это было бы похоже, если бы превосходящие нас существа прилетели на Землю и показали бы нам, как они играют в шахматы, — говорил датский гроссмейстер Петер Хейне Нильсен в интервью ВВС. – Теперь я знаю».

В прошлом году мы видели и других ботов с иных миров, проявивших себя в настолько разных областях, как безлимитный покер и Dota 2 – популярной онлайн-игре, в которой фэнтезийные герои борются за контроль над иным миром.

Естественно, что амбиции компаний, инвестирующих деньги в подобные системы, простираются за пределы доминирования на игровых чемпионатах. Исследовательские команды вроде DeepMind надеются применять сходные методы к задачам реального мира – созданию сверхпроводников, работающих при комнатной температуре, или пониманию того, какое оригами свернёт белки в полезные для лекарств молекулы. И, конечно, многие практики надеются построить искусственный интеллект общего назначения – плохо определяемая, но пленительная цель дать машине возможность мыслить, как человек и гибко подходить к решению разных проблем.

Однако, несмотря на все вложения, пока неясно, насколько далеко смогут текущие технологии выйти за пределы игровой доски. «Не уверен, что идеи, лежащие в основе AlphaZero, будет так легко обобщить», — говорит Педро Домингос, специалист по информатике из Вашингтонского университета. «Игры – это очень, очень необычная тема».

Идеальные цели для неидеального мира


Одна общая у многих игр характеристика, включая шахматы и го – игрокам постоянно видны все фишки с обеих сторон доски. У каждого игрока есть, что называется, «идеальная информация» о состоянии игры. Какой бы сложной ни была игра, вам нужно просто думать над текущей позицией.

Многие ситуации реального мира с этим не сравнить. Представьте, что мы просим компьютер поставить диагноз или провести бизнес-переговоры. «Большая часть стратегических взаимодействий в реальном мире связана со скрытой информацией», — говорит Ноам Браун, аспирант по информатике из Университета Карнеги-Мэлон. «Мне кажется, что большая часть ИИ-сообщества этот факт игнорирует».

Покер, на котором специализируется Браун, предлагает иную задачу. Вы не видите карт оппонента. Но и здесь машины, обучающиеся через игру с самими собой, уже достигают сверхчеловеческих высот. В январе 2017 года программа Libratus, созданная Брауном и его куратором Томасом Сэндхолмом, обыграла четырёх профессиональных игроков в безлимитный техасский холдем, выиграв $1,7 млн в конце 20-дневного чемпионата.

Ещё более обескураживающая игра с неидеальной информацией — StarCraft II, ещё одна многопользовательская онлайн-игра с огромным числом фанатов. Игроки выбирают команду, строят армию и ведут войну на научно-фантастическом ландшафте. Но ландшафт окружён туманом войны, из-за которого игроки видят только те части территории, на которых расположены их собственные войска или строения. Даже в решении исследовать территорию соперника полно неопределённости.

Это единственная игра, в которую ИИ пока не может выиграть. Препятствиями служат огромное количество вариантов ходов в игре, которое обычно переваливает за тысячу, и скорость принятия решений. Каждому игроку – человеку или машине – приходится беспокоиться об огромном количестве вероятных сценариев развития с каждым щелчком мышки.

Пока что соперничать на равных с людьми в этой области ИИ не может. Но это является целью для развития ИИ. В августе 2017 DeepMind скооперировалась с Blizzard Entertainment, компанией, создавшей StarCraft II, чтобы создать инструменты, которые, по их словам, откроют эту игру для исследователей ИИ.

Несмотря на всю сложность, цель StarCraft II сформулировать просто: уничтожить врага. Это роднит её с шахматами, го, покером, Dota 2 и практически любой другой игрой. В играх можно победить.

С точки зрения алгоритма у задач должна быть «целевая функция», цель, к которой надо стремиться. Когда AlphaZero играли в шахматы, это было несложно. Поражение оценивалось в -1, ничья в 0, победа в +1. Целевая функция AlphaZero – максимизация очков. Целевая функция покерного бота настолько же проста: выиграть кучу денег.


Компьютерные ходоки могут тренировать сложное поведение, вроде ходьбы по незнакомой местности

Ситуации в реальной жизни бывают не такими простыми. К примеру, робомобилю требуется более тонкое формирование целевой функции – что-то похожее на аккуратный подбор слов при описании вашего желания джинну. К примеру: быстро доставить пассажира по правильному адресу, подчиняясь всем законам и соответствующим образом взвешивая стоимость человеческой жизни в опасных и неопределённых ситуациях. Домингос говорит, что формирование исследователями целевой функции, это «одна из тех вещей, что отличают великого исследователя в области машинного обучения от середнячка».

Рассмотрим Tay, чат-бота для Twitter, который Microsoft выпустила 23 марта 2016 года. Его целевой функцией было вовлекать людей в разговор, чем он и занимался. «Что, к сожалению, обнаружил Tay, — сказал Домингос, — так это то, что наилучшим способом максимизации вовлечения людей будет выдавать расистские оскорбления». Его отключили всего через день после начала работы.

Ваш собственный главный враг


Некоторые вещи не меняются. Используемые сегодня преобладающими игровыми ботами стратегии были придуманы много десятилетий назад. «Это такой взрыв из прошлого – ему просто дают больше вычислительных мощностей», — говорит Дэвид Дувено, специалист по информатике из Токийского университета.

Стратегии часто основываются на обучении с подкреплением, техники с предоставлением свободы действия. Вместо того, чтобы заниматься микроменеджментом, настраивая мельчайшие подробности работы алгоритма, инженеры дают машине изучать окружении обучаться достижению целей самостоятельно, методом проб и ошибок. До выхода AlphaGo и его наследников, команда DeepMind достигла первого большого успеха, попавшего в заголовки, в 2013 году, когда использовала обучение с подкреплением для создания бота, научившегося играть в семь игр Atari 2600, причём в три из них – на уровне эксперта.

Этот прогресс продолжился. 5 февраля DeepMind выпустила IMPALA – ИИ-систему, способную научиться 57 играм с Atari 2600 и ещё 30 уровням, сделанным DeepMind в трёх измерениях. На них игрок действует в различных окружениях и достигает целей вроде открытия дверей или сбора грибов. IMPALA, казалось, передавала знания между заданиями – время, потраченное на одну игру, улучшало результаты в остальных.

Но в более широкой категории обучения с подкреплением, настольных и мультипользовательских играх, можно использовать более конкретный подход. Их изучение может идти в виде игры с самим собой, когда алгоритм достигает стратегического превосходства, многократно соревнуясь с близкой копией себя.

Этой идее много десятков лет. В 1950-х инженер IBM Артур Сэмюель создал программу для игры в шашки, которая частично училась играть, соревнуясь сама с собой. В 1990-х Джеральд Тезауро из IBM создал программу для игры в нарды, противопоставлявшую алгоритм самому себе. Программа дошла до уровня людей-экспертов, параллельно выдумав необычные, но эффективные стратегии игры.

Во всё возрастающем числе игр алгоритмам для игры с самим собой предоставляют равного противника. Это означает, что изменение стратегии игры приводит к иному результату, благодаря чему алгоритм получает мгновенную обратную связь. «Каждый раз, когда вы что-то узнаёте, когда открываете какую-то мелочь, ваш оппонент сразу начинает использовать её против вас», — говорит Илья Суцкевер, директор по исследованиям в OpenAI, некоммерческой организации, которую он основал вместе с Илоном Маском, посвящённой разработке и распространению ИИ-технологий и направлению их развития в безопасное русло. В августе 2017 года организация выпустила бота для Dota 2, управлявшего одним из персонажей игры, Shadow Fiend – демоном-некромантом – победившего лучших игроков мира в сражениях один на один. Ещё один проект OpenAI сталкивает симуляции людей в матче сумо, в результате чего они обучаются борьбе и уловкам. Во время игры с самим собой «некогда отдыхать, нужно постоянно совершенствоваться», — сказал Суцкевер.

OpenAI


Но старая идея игры с самим собой – только один ингредиент в преобладающих сегодня ботах, им ещё нужен способ превращения игрового опыта в более глубокое понимание предмета. В шахматах, го, видеоиграх типа Dota 2 перестановок больше, чем атомов во Вселенной. Даже если мы будем ждать несколько человеческих жизней, пока ИИ будет бороться со своей тенью на виртуальных аренах, машина не сможет реализовать каждый сценарий, записать его в специальной таблице и обращаться к ней, когда такая ситуация попадётся вновь.

Чтобы оставаться на плаву в этом море возможностей, «необходимо обобщать и выделять суть», — говорит Питер Аббиль, специалист по информатике из Калифорнийского университета в Беркли. Deep Blue от IBM делала это при помощи встроенной формулы для игры в шахматы. Вооружённая возможностью оценивать силу игровых позиций, которые она ещё не видела, программа смогла применить ходы и стратегии, увеличивающие её шансы на выигрыш. В последние годы новая техника даёт возможность вообще отказаться от такой формулы. «Теперь, внезапно, всё это охватывает „глубинная сеть“, — сказал Аббиль.

Глубинные нейросети, популярность которых взлетела в последние годы, строятся из слоёв искусственных „нейронов“, наслоённых друг на друга, будто стопка блинов. Когда нейрон в одном из слоёв активируется, он отправляет сигналы на уровень выше, а там их отправляют ещё выше, и так далее.

Подстраивая связи между уровнями, эти сети удивительно справляются с превращением входных данных в связанные с ними выходные, даже если связь между ними кажется абстрактной. Дайте им фразу на английском, и они смогут натренироваться, переводя её на турецкий. Дайте им изображения приютов для животных, и они смогут определить, какой из них для кошек. Покажите им игровое поли, и они смогут понять вероятность выигрыша. Но обычно таким сетям сначала необходимо предоставить списки из помеченных примеров, на которых они смогут практиковаться.

Именно поэтому игра с самим собой и глубинные нейросети так хорошо сочетаются друг с другом. Самостоятельные игры выдают огромное количество сценариев, и у глубинной сети оказывается практически неограниченное количество данных для тренировки. А потом нейросеть предлагает способ усвоить опыт и закономерности, встреченные во время игры.

Но есть подвох. Чтобы такие системы выдавали полезные данные, им нужна реалистичная площадка для игр.

»Все эти игры, все эти результаты, достигались в условиях, позволявших идеально симулировать мир", — говорит Челси Финн, аспирант из Беркли, использующая ИИ для управления роботизированными руками и интерпретации данных, полученных с датчиков. Другие области не так легко имитировать.

Робомобили, к примеру, с трудом справляются с плохой погодой или с велосипедистами. Или они могут не воспринять необычные возможности, встречающиеся в реальном мире – типа птицы, летящей прямо в камеру. В случае с роботизированными руками, как говорит Финн, начальные симуляции давали базовую физику, позволявшую руке выучиться тому, как учиться. Но они не справляются с деталями прикосновений к разным поверхностям, поэтому задачи типа закручивания крышки бутылки – или проведения сложной хирургической операции – требуют опыта, полученного в реальности.

В случае проблем, которые сложно симулировать, игры с самим собой уже не будут такими полезными. «Существует большая разница между по-настоящему идеальной моделью окружения, и выученной примерной моделью, особенно когда реальность по-настоящему сложна», — написал мне Йошуа Бенджио, пионер глубинного обучения из Монреальского университета. Но у исследователей ИИ всё равно остаются способы двигаться дальше.

Жизнь после игр


Сложно точно указать начало превосходства ИИ в играх. Можно выбрать проигрыш Каспарова в шахматах, поражение Ли Седоля от виртуальных рук AlphaGo. Другим популярным вариантом будет тот день 2011 года, когда легендарный чемпион игры Jeopardy! Кен Дженнингс проиграл IBM Watson. Watson был способен обрабатывать подсказки и игру слов. «Я приветствую появление наших новых компьютерных повелителей», — написал Дженнингс под своим последним ответом.

Создавалось впечатление, что у Watson есть офисные навыки подобные тем, что люди используют для решения множества реальных задач. Он мог воспринять ввод на английском языке, обработать связанные с ним документы в мгновение ока, выудить связные кусочки информации и выбрать один наилучший ответ. Но спустя семь лет реальность продолжает ставить сложные препятствия перед ИИ. В сентябрьском отчёте по здравоохранению агентства Stat указано, что наследник Watson, специализирующийся на исследованиях раковых заболеваний и выработке персонифицированных рекомендаций для лечения Watson for Oncology, столкнулся с проблемами.

«Вопросы в игре Jeopardy! Проще обрабатывать, поскольку для этого не требуется здравый смысл», — писал Бенджио, работавший совместно с командой Watson, в ответ на просьбу сравнить два этих случая с точки зрения ИИ. «Понять медицинскую статью гораздо сложнее. Требуется провести большой объём базовых исследований».

Но пусть игры и узко специализированы, они напоминают несколько реальных задач. Исследователи из DeepMind не захотели отвечать на вопросы интервью, указав, что их работу по AlphaZero в данный момент изучают независимые специалисты. Но команда предположила, что такая технология вскоре сможет помочь исследователям биомедицины, желающим разобраться в свёртывании белков.

Для этого им необходимо разобраться с тем, как различные аминокислоты, составляющие белок, гнутся и сворачиваются в небольшую трёхмерную машину, функциональность которой зависит от её формы. Эта сложность похожа на сложность шахмат: химикам известны законы на таком уровне, чтобы достаточно грубо обсчитывать определённые сценарии, но возможных конфигураций существует столько, что провести поиск по всем возможным вариантам не получится. Но что, если сворачивание белков можно представить в виде игры? А это уже предпринимали. С 2008 года сотни тысяч людей попробовали онлайн-игру Foldit, в которой пользователям начисляются очки за стабильность и реальность свёрнутой ими белковой структуры. Машина могла бы тренироваться сходным образом, возможно, пытаясь превзойти своё предыдущее лучшее достижение при помощи обучения с подкреплением.

Обучение с подкреплением и игра с самим собой могут помочь тренировать и диалоговые системы, предполагает Сацкевер. Это может дать роботам, которые должны беседовать с людьми, шанс натренироваться в этом, разговаривая с самим собой. Учитывая, что специализированное оборудование для работы ИИ становится быстрее и доступнее, у инженеров появляется всё больше стимулов к оформлению задач в виде игр. «Думаю, что в будущем важность игры с самим собой и других способов потребления большого количества вычислительных мощностей будет возрастать», — сказал Сацкевер.

Но если итоговой целью машин ставить повторение всего, на что способен человек, то даже обобщённому чемпиону по игре в настольные игры вроде AlphaZero ещё есть, куда расти. «Необходимо обратить внимание, по крайней мере, мне это очевидно, на огромную пропасть между реальным мышлением, творческим исследованием идей и сегодняшними способностями ИИ», — говорит Джон Тененбаум, когнитивист из MTI. «Такой интеллект существует, но пока только в умах великих исследователей ИИ».

Многие другие исследователи, ощущающие шумиху вокруг их области, предлагают собственные критерии. «Я бы порекомендовал не переоценивать важность этих игр, для ИИ или для задач общего назначения. Люди не очень хорошо умеют играть в игру, — говорит Франсуа Шоле, исследователь глубинного обучения в Google. – Но имейте в виду, что с помощью даже очень простых и специализированных инструментов можно достичь многого».

habr.com

Ученые создали самообучающийся ИИ, способный играть во все игры

2018-12-06T22:00+0300

2018-12-06T22:00+0300

https://ria.ru/20181206/1547553218.html

Ученые создали самообучающийся ИИ, способный играть во все игры

https://cdn24.img.ria.ru/images/154755/18/1547551835_0:719:2048:1871_1036x0_80_0_0_96f73f30921f1c1670e3b74d4a44e1cf.jpg

РИА Новости

https://cdn22.img.ria.ru/i/export/ria/logo.png

РИА Новости

https://cdn22.img.ria.ru/i/export/ria/logo.png

МОСКВА, 6 дек – РИА Новости. Разработчики революционной самообучающейся системы искусственного разума AlphaGo Zero объявили о создании новой версии этой машины, способной самостоятельно учиться играть в любую настольную игру и обыгрывать человека. Ее описание было представлено в журнале Science.

"Люди учились играть в шахматы, го, сёги и многие другие игры сотни и тысячи лет. AlphaZero самостоятельно достигла вершин мастерства во всех этих играх без какой-либо помощи с нашей стороны. Моя мечта — создать такую же систему, которая бы не просто умела играть, но и решать повседневные задачи, к примеру, создавала бы новые лекарства", — заявил Дэвид Сильвер (David Silver), главный разработчик компании DeepMind.

Глубины разума

Система ИИ AlphaGo была разработана Дэвидом Сильвером и его коллегами в конце 2014 года, и ее работа была "протестирована" на чемпионе Европы Фане Хое (Fan Hui), который проиграл все пять матчей машине. В марте 2016 года AlphaGo победил чемпиона мира по го, Ли Седола, в серии из пяти матчей, только один из которых завершился победой человека.

Сильвер и его коллеги смогли достичь этих успехов, построив свой ИИ на базе не одной, а сразу двух нейронных сетей – особых алгоритмов, имитирующих работу цепочек нейронов в мозге человека. Одна из них отвечает за оценку текущей позиции на доске, а вторая использует результаты анализа, подготовленные первой сетью, для того чтобы выбирать следующий шаг.

Следующим логическим шагом в развитии AlphaGo стала ликвидация главного недостатка всех существующих сегодня нейросетей и систем искусственного интеллекта – необходимости обучать их тому, что они должны делать, используя огромные архивы данных, вручную обработанные человеком, или при непосредственном участии человека, как это происходило на первых этапах развития AlphaGo.

Сильвер и его команда решили эту задачу, создав принципиально новую нейронную сеть, которая базируется на так называемых алгоритмах обучения с подкреплением. Эта нейросеть, в отличие от ее звездного предшественника, который изначально обучался в играх с добровольцами и имел некоторые встроенные примитивные стратегии игры, начала свою работу с состояния абсолютного новичка с нулевым багажом знаний.

2 июня 2018, 08:00РИА НаукаУнутре нейронка: "Яндекс" превратил искусственный разум в реставратора

Иными словами, ей были известны лишь правила игры в го, начальные условия и условия победы, и затем компьютер самостоятельно учился играть в эту древнекитайскую стратегию, играя сам с собой и действуя методом проб и ошибок. Единственным ограничением в ее работе было максимальное время на обдумывание хода – оно составляло примерно 0,4 секунды.

После каждой подобной игры, система ИИ анализировала все свои ходы и запоминала те, которые приближали одну из ее "половинок" ее к победе, и заносила в своеобразный "черный список" те шаги, которые были откровенно проигрышными. Используя эти данные, нейросеть перестраивала себя, постепенно достигнув того уровня, на который вышла первая версия AlphaGo перед серией игр с Ли Седолом.

Переход на алгоритмы самообучения не только позволил AlphaGo Zero превзойти уровень своей предшественницы и обыграть ее со счетом 100-0, но и улучшил многие другие аспекты ее работы. В частности, процесс ее обучения занял всего три дня и примерно пять миллионов игр, что было на порядок меньше запросов первой версии ИИ.

Путь к совершенству

Успешное завершение экспериментов с AlphaGo Zero заставило Сильвера и его команду задуматься о том, можно ли применить аналогичную нейросеть для завоевания короны чемпиона в других типах стратегических и настольных игр.

Для этого ученые встроили в AlphaGo Zero еще один новый элемент – эвристические алгоритмы случайного поиска решений, а также код, учитывавший существование ничьи в некоторых играх. Вдобавок, новая версия "альфы" непрерывно совершенствовала свою структуру, а не обновлялась этапами, как ее предшественница.

Эти относительно простые изменения, как показали дальнейшие опыты, значительно повысили скорость самообучения этой системы искусственного разума и превратили ее в универсальную машину, способную играть во все виды настольных стратегий.

9 января 2017, 13:48РИА НаукаNature: Google тайно выпустила на волю искусственный интеллект AlphaGo

Ее работу ученые проверили на трех типах игр – го, обычных шахматах и их японской разновидности, сёги. Во всех трех случаях новое детище Сильвера достигло уровня гроссмейстера меньше чем за миллион игр, достигнув почти человеческой избирательности при выборе возможных ходов всего за 9-12 часов тренировок для шахмат, и за 13 дней для го.

Еще раньше она обыграла самые совершенные компьютерные программы, играющие в эти игры – алгоритм Stockfish "сдался" на четвертый час тренировки AlphaZero, а система Elmo, текущий чемпион в сёги, протянул всего два часа. И наконец, первая версия AlphaGo начала уступать ее "внуку" примерно на 30 часу его обучения.

Следующими "жертвами" AlphaZero, как отметили ученые, могут стать "настоящие" компьютерные игры, такие как Starcraft II и Dota 2. Взятие чемпионства в подобных киберспортивных дисциплинах, по их мнению, откроет дорогу для проникновения самообучающихся ИИ в менее формализуемые области науки, культуры и техники.

ria.ru

Почему у самообучающегося ИИ возникают проблемы в реальном мире

Новейшие самообучающиеся системы искусственного интеллекта способны за несколько часов с нуля изучить какую-либо игру и стать чемпионами мирового уровня. До недавнего времени машины, способные обыграть чемпионов, начинали свою учёбу с изучения человеческого опыта. Чтобы победить Гарри Каспарова в 1997-м, инженеры IBM загрузили в Deep Blue информацию, накопленную за века увлечения человечества шахматами. В 2016-м созданный в Google DeepMind искусственный интеллект AlphaGo превзошёл чемпиона Ли Седола в древней настольной игре Го, предварительно изучив миллионы позиций из десятков тысяч сыгранных людьми партий. Но сейчас разработчики ИИ переосмысливают подход к внедрению человеческих знаний в «электронные мозги». Текущая тенденция: не утруждаться этим.

В октябре 2017-го команда DeepMind опубликовала информацию о новой системе для игры в Го — AlphaGo Zero. Она вообще не изучала сыгранные людьми партии. Вместо этого она изучила правила и начала играть сама с собой. Первые ходы были абсолютно случайными. После каждой партии система анализировала, что привело к победе или поражению. Через некоторое время AlphaGo Zero стала играть с прокачанной победительницей Ли Седола — AlphaGo. И победила её со счётом 100:0.


Ли Седол, 18-кратный чемпион мира по игре в Го, во время матча с AlphaGo в 2016-м.

Затем исследователи создали систему, которая стала сильнейшим игроком в семействе AlphaGo — AlphaZero. В работе, опубликованной в декабре, разработчики из DeepMind сообщили, что AlphaZero, тоже начавшая обучаться с нуля, превзошла AlphaGo Zero — то есть она победила бота, который победил бота, который победил лучшего игрока в Го в мире. И когда ей скормили правила шахмат, а также японского варианта этой игры — сёги, — AlphaZero быстро научилась побеждать самые сильные алгоритмы в этих играх. Эксперты удивились агрессивному, необычному стилю игры. Как отметил датский гроссмейстер Петер Хайне Нильсен: «Мне всегда было интересно узнать, что было бы, если на Землю прилетят сверхсущества и покажут нам, как они умеют играть в шахматы. Теперь я знаю».

В прошлом году мы наблюдали появление потусторонних самообучающихся ботов в таких разных сферах, как неограниченный покер и Dota 2.

Понятно, что компании, вкладывающие деньги в эти и подобные системы, имеют куда более амбициозные планы, чем доминирование на игровых чемпионатах. Исследователи надеются применять похожие методы для решения настоящих задач, вроде создания сверхпроводников, работающих при комнатной температуре, или использования принципов оригами для укладки белков в молекулы сильнодействующих лекарств. И, конечно же, многие практики надеются создать ИИ общего назначения — цель расплывчатая, но захватывающая, подразумевающая, что машина сможет думать как человек и решать самые разные задачи.

Но несмотря на большие вложения сил и средств в подобные системы, непонятно, насколько далеко они смогут уйти от сферы игр.

Идеальные цели для несовершенного мира


Многие игры, в том числе шахматы и Го, объединяет то, что игроки всегда видят весь расклад на игровом поле. Каждый игрок в любой момент времени обладает «полной информацией» о состоянии игры. Но чем сложнее игра, тем дальше требуется продумывать вперёд от текущего момента. В реальности обычно всё не так. Представьте, что вы попросили компьютер поставить диагноз или провести деловые переговоры. Ноам Браун, аспирант факультета информатики в Университете Карнеги Меллона: «В большинстве реальных стратегических взаимоотношений используется скрытая информация. У меня такое чувство, что многие участники ИИ-сообщества игнорируют это обстоятельство».

Браун специализируется на разработке алгоритмов игры в покер, и в этой игре другие сложности: вы не видите карты своих соперников. Но и здесь машины, которые учатся играть самостоятельно, уже достигают заоблачных высот. В январе 2017-го программа под названием Libratus, созданная Брауном и Туомасом Сандхольмом, обыграла один на один четырёх профессиональных игроков в безлимитный техасский холдем. В конце 20-дневного турнира бот набрал на $1,7 млн больше соперников.

Многопользовательская стратегия StarCraft II — ещё более внушительная игра, подразумевающая неполное владение информацией о текущей ситуации. Здесь ИИ пока ещё не достиг Олимпа. Этому препятствует огромное количество ходов в игре, зачастую измеряемое тысячами, и высокая скорость их выполнения. Каждому игроку — человеку или машине — при каждом клике нужно думать о безграничном разнообразии дальнейшего развития событий.

Пока что ИИ не может на равных сражаться с лучшими игроками. Но разработчики стремятся к этому. В августе 2017-го DeepMind заручилась поддержкой Blizzard Entertainment (создавшей StarCraft II) в создании инструментов, которые должны помочь исследователям ИИ.

Несмотря на трудность игрового процесса, суть StarCraft II сводится к простой задаче: уничтожить врагов. То же самое можно сказать про шахматы, Го, покер, Dota 2 и почти любую другую игру. А в играх можно побеждать.

С точки зрения алгоритма, задача должна иметь «целевую функцию», которую и нужно найти. Это было не слишком трудно, когда AlphaZero играл в шахматы. Проигрыш засчитывался как -1, ничья — 0, победа — +1. Целевой функцией для AlphaZero было заработать максимальное количество очков. Целевая функция для покерного бота тоже проста: выиграть много денег.


Алгоритм обучается сложному поведению — хождению по незнакомой поверхности.

В жизни всё не столь однозначно. К примеру, беспилотному автомобилю нужна более конкретная целевая функция. Что-то вроде осторожной формулировки своего желания, которое объясняешь джинну. К примеру: быстро доставить пассажиров в правильное место назначения, соблюдая все правила и надлежащим образом оценивая человеческие жизни в опасных и неопределённых ситуациях. Педро Домингос, специалист по информатике в Вашингтонском Университете: «Помимо прочего, разница между замечательным и обычным исследователем машинного обучения заключается в способе формулирования целевой функции».

Вспомните твиттерного чат-бота Tay, запущенного Microsoft 23 марта 2016 года. Его целью было вовлечение людей, и он этого достиг. Но внезапно выяснилось, что лучший способ максимального вовлечения — изливание всевозможных оскорблений. Бота отключили меньше, чем через день.

Ваш личный худший враг


Кое-что остаётся неизменным. Методы, используемые современными доминирующими игровыми ботами, опираются на стратегии, придуманные десятилетия назад. Прямо таки привет из прошлого, только подкреплённый современными вычислительными мощностями.

Эти стратегии обычно базируются на обучении с подкреплением, методике без участия человека. Вместо вместо дотошного управления алгоритмом с помощью подробных инструкций, инженеры позволяют машине исследовать среду и достигать поставленных целей методом проб и ошибок. До выхода AlphaGo и его потомков, в 2013-м команда DeepMind добилась серьёзного, важного результата, с помощью обучения с подкреплением научив бота играть в семь игр для Atari 2600, причём в трёх из них — на уровне эксперта.

Не остановившись на достигнутом, 5 февраля команда DeepMind выкатила IMPALA, ИИ-систему, способную играть в 57 игр для Atari 2600, а также ещё 30 трёхмерных уровней, созданных в DeepMind. На этих уровнях игрок проходит по различным местностям и помещениям, решает задачи вроде открывания дверей и собирания грибов. Причём IMPALA переносила накопленный опыт между задачами, то есть каждая сыгранная сессия улучшала результаты последующей сессии.

Но в рамках более широкой категории обучения с подкреплением настольные и многопользовательские игры позволяют использовать ещё более специализированный подход. Исследование может проходить в форме игры с самим собой, когда алгоритм набирается опыта, борясь с собственной копией.

Этой идее тоже очень много лет. В 1950-х инженер IBM Артур Сэмюэль создал программу для игры в шашки, которая частично училась на партиях, сыгранных между альфа- и бета-копией. А в 1990-х Джеральд Тезауро, тоже из IBM, создал программу для игры в нарды, выставлявшую против себя собственный алгоритм. Бот достигал уровня человека-эксперта, разрабатывая нестандартные, но эффективные стратегии.

Играя с самим собой, алгоритм в каждой партии встречается с равным себе соперником. Поэтому изменения в стратегии приводят к разным результатам, учитывая немедленный ответ алгоритма-копии. Илья Суцкевер, руководитель исследований в OpenAI: «Каждый раз, когда ты узнаёшь что-то новое, открываешь для себя малейшие сведения об игре и окружающей среде, твой оппонент моментально использует это против тебя». В августе 2017-го OpenAI выпустила бота для Dota 2, который управлял персонажем Shadow Fiend — что-то вроде демона-некроманта, — и в поединках одержал верх над лучшими в мире игроками. Другой проект компании: два алгоритма управляют борцами сумо, учась друг у друга приёмам борьбы. И во время такого обучения невозможно стагнировать, ты должен постоянно улучшаться.


Созданный в OpenAI бот для Dota 2 самостоятельно научился нескольким сложным стратегиям.

Но старая идея игры с самим собой — лишь один из ингредиентов современного превосходства ботов, которым ещё нужно как-то «переосмыслить» свой игровой опыт. В шахматах, Го и видеоиграх вроде Dota 2 существует несметное количество возможных комбинаций. Даже потратив множество жизней в сражениях со своей тенью на виртуальных аренах, машина не сможет просчитать каждый возможный сценарий, чтобы составить таблицу действий и сверяться с ней, когда снова окажется в подобной ситуации.

Чтобы оставаться на плаву в море возможностей, нужно обобщать, схватывать суть. IBM Deep Blue это удалось благодаря встроенным шахматным формулам. Вооруженный способностью оценивать комбинации на доске, с которыми он ранее не встречался, компьютер подстраивал ходы и стратегии ради увеличения вероятности своей победы. Но появившиеся в последние годы новые методики позволили отказаться от формул.

Всё больше популярности набирают глубокие нейросети (deep neural networks). Они состоят из слоёв искусственных «нейронов», как блины в стопке. Когда срабатывают нейроны в одном слое, они отправляют сигналы на следующий слой, тот пересылает на следующий, и так далее. Корректируя связи между слоями, такие нейросети добиваются фантастических результатов, преобразуя входные данные в какой-то взаимосвязанный результат, даже если связь и кажется абстрактной. Допустим, нейросети можно дать фразу на английском, и та переведёт её на турецкий. Или можно дать ей фотографии из приюта для животных, а нейросеть найдёт те снимки, где изображены кошки. Или можно показать глубокой нейросети правила настольной игры, и она высчитает вероятность своей победы. Но сначала, как вы понимаете, нейросеть должна обучиться на выборке размеченных данных.

Нейросети, играющие с собой, и глубокие нейросети хорошо дополняют друг друга. Играющие с собой сети генерируют поток информации об играх, обеспечивая для глубоких сетей теоретически бесконечный источник данных для обучения. В свою очередь, глубокие сети предлагают способ усваивания опыта и шаблонов, наработанных играющими с собой сетями.

Но тут есть одна уловка. Чтобы играющие с собой системы генерировали полезные данные, им нужно реалистичное место для игры.

Все партии сыграны, все высоты достигнуты в средах, где вы можете эмулировать мир с разной степень достоверности. А в других сферах не так просто добиться впечатляющих результатов.

К примеру, беспилотным автомобилям тяжело даётся езда в плохую погоду, и сильно мешают велосипедисты на дороге. Также беспилотники могут неверно оценить нестандартную, но реальную ситуацию, вроде полёта птицы прямо в камеру автомобиля. Или возьмём менее экзотическое применение ИИ — роботизированную руку-манипулятор. Сначала её нужно обучить основам физических действий, чтобы рука хотя бы поняла, как ей учиться. Но при этом ей неведомы особенности прикосновения к разным поверхностям и предметам, так что для решения таких задач, как откручивание крышки с бутылки или проведение хирургической процедуры, машине нужно практиковаться.

Йошуа Бенгио, специалист по глубокому обучению в Университете Монреаля: «В трудно моделируемых ситуациях не слишком полезна модель обучения «игра с самим собой». Существует огромная разница между действительно идеальной моделью среды и моделью выученной, «выстраданной», особенно если среда сложна».

Жизнь после игр


Трудно точно сказать, когда именно началось превосходство ИИ в играх. Можете выбрать проигрыш Каспарова или поражение Ли Седола. Нередко отсчёт ведут с 2011-го, с проигрыша Кена Дженнингса, чемпиона телевизионной игры Jeopardy!, в двухдневном соперничестве с IBM Watson. Машина смогла разобраться в формулировках и игре слов. Разработчики наделили Watson способностью к обработке текстов, свойственной нам самим. Компьютер может взять англоязычную фразу-подсказку к слову, с огромной скоростью просмотреть релевантные документы, выделить куски информации и выбрать наилучший ответ.

Но за прошедшие годы «обычные» жизненные задачи всё ещё не поддаются ИИ. В сентябре 2017-го опубликовали отчёт, согласно которому возникли большие сложности при исследовании и разработке персональных методов лечения рака в рамках проекта Watson for Oncology. Компьютеру гораздо проще понять смысл вопросов в Jeopardy!, чем разобраться в сути медицинской статьи.

Однако есть ряд настоящих задач, которые столь же узкоспециализированы, как и игры. Ходят слухи, что команда DeepMind работает над адаптацией AlphaZero для использования в биомедицинских исследованиях по укладыванию белка. Для этого разработчикам придётся понять, каким образом аминокислоты, формирующие белки, можно свернуть в маленькие трёхмерные структуры, чьи функции зависят от формы. Это так же сложно, как и игра в шахматы: химикам известны некоторые принципы, позволяющие вычислять какие-то сценарии, но обилие возможных трёхмерных конфигураций столь велико, что исследовать их все «вручную» просто не реально. Но что если превратить укладку белка в игру? Именно так уже и сделали. С 2008 года сотни тысяч игроков пробовали свои силы в онлайновой игре Foldit, в которой очки давались за стабильность и реализуемость создаваемых белковых структур. Машина может тем же образом натренировать саму себя, например, посредством обучения с подкреплением пытаясь превзойти лучшие результаты людей-игроков.

Также обучение с подкреплением и игра с собой могут помочь обучить диалоговые системы. Тогда роботы смогут говорить с людьми, сначала поучившись говорить сами с собой. А учитывая рост производительности и доступности специализированного оборудования для ИИ, инженеры получат стимул переводить всё больше реальных задач в форму игры. Вероятно, в будущем будет лишь возрастать важность методики «игра с собой» и прочих подходов, требующих огромных вычислительных мощностей.

Но если наша главная цель — создать машину, которая сможет делать столько же, сколько человек, причём самообучающуюся машину, то у чемпионов настольных игр вроде AlphaZero появляются вероятные пути развития. Необходимо осознавать пропасть между реальной мыслительной деятельностью, творческим осмыслением идей и тем, что мы сегодня видим в сфере ИИ. Тот светлый образ искусственного интеллекта существует, по большей части, в умах великих исследователей.

Многие учёные, осознающие уровень шумихи, предлагают собственные классификации. Не нужно переоценивать значимость ботов, играющих в игры, для развития ИИ в целом. Люди, например, не слишком хорошо умеют играть. Но зато очень простые, специализированные инструменты в каких-то задачах могут достигать больших высот.

habr.com

учёные сообщают об успехах в самообучении искусственного интеллекта / Habr


По Курцвейлу, логарифмическая шкала смены парадигм для ключевых исторических событий проявляет экспоненциальную тенденцию

Ключевой элемент для возникновения технологической сингулярности — запуск неконтролируемого цикла самосовершенствования ИИ, где каждое новое более умное поколение ИИ будет появляться быстрее предыдущего. Согласно теории сингулярности по Вернору Винджу, в результате взрывного развития интеллекта в цикле экспоненциального самосовершенствования появится сверхинтеллект, который намного превзойдёт возможности человеческого разума и по сути будет непонятен для него. Называются разные примерные даты наступления сингулярности, исходя из экстраполяции технологического прогресса. Рей Курцвейл считает, что это произойдёт примерно в 2045 году (хотя он не считает обязательным экспоненциальное самосовершенствование ИИ), а среднее медианное значение по опросу экспертов по сильному ИИ — 2040 год.

Вполне возможно, что сингулярность наступит раньше прогнозируемого. Инженеры из компании Google и разработчики систем ИИ из других компаний сообщают об успехах, которых удалось добиться в ключевом направлении — создании систем ИИ, предназначенных для проектирования других систем ИИ.

В одном из экспериментов исследователи ИИ из подразделения Google Brain разработали программу, которая проектировала нейронную архитектуру нейросети таким образом, чтобы та показывала максимально высокие результаты в распознавании речи. Спроектированная программным методом система показала лучший результат, чем созданные человеком нейросети.

Издание MIT Technology Review рапортует, что в последние месяцы об успехах по созданию систем ИИ для проектирования других систем ИИ сообщили несколько исследовательских коллективов, в том числе из некоммерческой организации OpenAI (финансируется Илоном Маском), Массачусетского технологического института, Калифорнийского университета в Беркли, а также ещё одного подразделения по искусственному интеллекту в компании Google — DeepMind. Очевидно, это направление научных исследований считается одним из самых перспективных, многие хотят преуспеть в нём.

По мнению MIT Technology Review, такие разработки в первую очередь преследуют экономическую цель. Создание программы для проектироания приложений ИИ значительно ускорит применение подобных технологий в разных сферах экономики. Сейчас многие компании не могут себе позволить внедрить систему ИИ, потому что в штате нет специалиста с такой компетенцией. Банально, эксперты по ИИ в большом дефиците. А ведь нейросети можно применять практически в огромном количестве приложений: в автомобильной промышленности, в банковской сфере, в телекоммуникациях, в системах безопасности и видеонаблюдения, в самых разных потребительских продуктах для распознавания речи и жестов, машинного зрения и т.д.

Разработка систем ИИ программными методами позволит заменить часть этих дефицитных программистов.

Важно ещё и то, что ИИ разрабатывает нейросети более эффективные, чем человек, поэтому внедрение таких программ имеет смысл даже там, где раньше работали живые разработчики.

На эту тему рассуждал недавно Джефф Дин (Jeff Dean), руководитель исследовательской группы Google Brain. В своём выступлении на конференции AI Frontiers в Санта-Кларе (Калифорния) он предположил, что часть таких программистов можно заменить программным обеспечением, потому что в данный момент компаниям приходится платить очень высокие деньги и зарплату этим специалистам, которых крайне не хватает.

Например, в научной статье "Learning to reinforcement learn" от DeepMind описан набор экспериментов для самообучения ИИ, который исследователи называют «глубокое мета-обучение с подкреплением» (deep meta-reinforcement learning). Суть заключается в том, чтобы использовать стандартное обучение с подкреплением нейросети с обратной связью таким образом, чтобы эта рекуррентная нейросеть разработала собственную свободную от внешних шаблонов процедуру обучения с подкреплением для другой рекуррентной нейросети.

Эксперименты показали, что нейросеть второго порядка, созданная усилиями первой нейросети, в некоторых случаях демонстрирует эффективность и качества, которыми не обладает нейросеть первого порядка.

Всего в научной работе DeepMind описано семь таких экспериментов. Как обычно, они проводят их в пространстве компьютерных игр. По мнению исследователей, подобные агенты ИИ, созданные с помощью других программ ИИ, способны быстрее адаптироваться к новым задачам, используя полученные ранее знания на схожих задачах. Эксперименты показали также, что результат обучения ИИ второго порядка можно считать непредсказуемым: его архитектура не зависит от архитектуры ИИ первого порядка и может сильно отличаться от неё. В частности, ИИ второго порядка способен использовать особенности среды, о которых не знали или не которые не учитывались самими разработчиками.

Специалисты DeepMind считают, что их эксперименты с глубоким мета-обучением с подкреплением имеют значение и в изучении человеческого мозга, в частности, они «обеспечивают интегративный фреймворк для понимания соответствующих ролей допамина и префронтальной коры головного мозга в биологических процессах обучения с подкреплением».

Идея самообучения ИИ выдвигалась и раньше, но до сих пор учёным не удавалось продемонстрировать настолько впечатляющих результатов. Например, один из пионеров в этой области, профессор Йошуа Бенжио (Yoshua Bengio), говорит, что такие эксперименты требуют слишком больших вычислительных мощностей, так что до последнего времени они не имели практического смысла. Например, в опытах Google Brain для работы программного обеспечения, которое проектирует систему ИИ для машинного зрения, использовалось 800 высокопроизводительных графических процессоров.

Исследователи из Массачусетского технологического института планируют опубликовать исходный код программы, которую использовали в своих экспериментах. Возможно, со временем использование таких инструментов будет иметь экономический смысл и оно снизит нагрузку на специалистов, которые разрабатывают модели для обработки данных. Высококвалифицированные программисты смогут отвлечься от кодинга и сконцентрироваться на идеях более высокого порядка.

habr.com

помощь с образованием, работой и планированием / Mail.ru Group corporate blog / Habr

На фоне новостей в области ИИ обычные стартапы как-то теряются. На arxiv.org в геометрической прогрессии растут исследования по machine learning (computer vision, natural language processing, etc.). AlphaGo Zero порабощает Землю разгромно обыгрывает прошлые версии сети и не требует человеческого участия в процессе тренировки. Нейросеть NVIDIA меняет на фото время года и погодные условия, а умельцы с помощью выложенного алгоритма меняют в фильмах актрис на… других актрис.

Как на фоне роста новостей по ИИ остаться жизнеспособным проектом? Когда-то Рэй Курцвейл предсказывал: «В 2029-м году программа не только сможет полностью пройти тест Тьюринга, а сделает это лучше многих реальных собеседников. Компьютер за тысячу долларов будет на порядки превосходить мозг среднего человека в большинстве областей». Однако сейчас эксперты говорят, что есть шансы получить сильный ИИ «в течение 5 лет с вероятностью 80 % и в течение 10 лет с вероятностью 99 %».

Вероятно, в ближайшие 5-10 лет может решиться судьба человечества. Стоит ли в таких условиях вообще заниматься проектом, связанным с ИИ, если его цель не заключается в создании разумных роботов? Точного ответа на этот вопрос нет. Но бум проектов, решающих прикладные задачи, продолжается. Сегодня мы посмотрим на три сферы применения ИИ, где уже достигнуты интересные результаты.


Образование


Woogie. Интерактивный робот, который делает обучение интересным для детей

Робот Woogie учит детей в возрасте 6-12 лет, общаясь с помощью голосового интерфейса. Робот развлекает, учит, дает ответы на некоторые вопросы, и стоит при этом всего 76 долларов. Woogie обращается к базе данных сервиса, чтобы отвечать на любой вопрос ребенка: от «Почему исчезли динозавры?» и до «Почему мне нужно есть брокколи?».

Учится не только ребенок. Сам робот постоянно обучается индивидуальному взаимодействию, адаптируется к привычкам и интересам каждого ребенка. Он способен рассказать анекдот, загадать загадку, привлечь внимание ребенка сказкой. Родители имеют доступ к системе через мобильное приложение и могут загружать в базу новый контент, например книги и обучающие игры.

Во многих отношениях проект необычный. У него нет своего токена, он не выходит на ICO, а деньги на развитие получает от краудфандинговой программы на Indiegogo. В настоящий момент подготовлено уже 30 протитопов устройства.


AltSchool. Платформа новых методов обучения

В 2014 году новый проект в сфере образования привлек $33 млн. В 2015 году AltSchool привлекла еще $100 млн. Стартап заинтересовал инвесторов необычным подходом: AltSchool — это серия микро-школ, в которых основное внимание уделяется индивидуальному обучению. Учащиеся получают собственные еженедельные «плейлисты», списки отдельных и групповых занятий, адаптированные к конкретным сильным и слабым сторонам каждого ребенка. AltSchool отслеживает прогресс и неудачи каждого ученика — каждый шаг на его пути, все сильные и слабые стороны. Программное обеспечение дает рекомендации, влияющие на образовательный процесс каждого ребенка.

В исследовательском проекте, организованном Фондом Гейтса, изучалось влияние персонализированной практики обучения в 23 государственных школах. Через два года исследование показало, что учащиеся в этих школах добились больших успехов, чем студенты из сопоставимых школ, в которых не было персонализированной программы обучения. Более того, исследование показало, что ученики, чьи оценки выросли больше всего, были теми, кто ранее сильно отставал по многим предметам.

Добавьте к персонализации возможности программного обеспечения, адаптирующего учебный план для каждого конкретного ученика, и вы поймете, как будет выглядеть образование в будущем.


Hugh. Помогает посетителям библиотеки быстро найти любую книгу

Студенты, которые ищут библиотечные книги в Университете Аберистуита (Великобритания), могут обратиться за помощью к роботу-библиотекарю. Hugh — первый в мире робот, предназначенный для работы в библиотеке. Он может рассказать, где хранится книга, и показать студенту соответствующую книжную полку.

Получая информацию из PRIMO, онлайн-библиотеки университета, Hugh имеет доступ к 800 000 книг. Hugh реагирует на голосовые команды и способен заниматься не только книгами. Подобные роботы смогут выполнять конкретные задачи больницах, супермаркетах или гостиницах.


Knewton. Адаптивное обучение

Собравшая $157 млн инвестиций компания Knewton разработала адаптивную образовательную платформу, основанную на технологиях анализа данных в сфере образования, и предлагает интегрировать свое решение с любой системой управления учебным процессом. Адаптивная платформа дает рекомендации для обучения студентов, основанные на успеваемости учащихся, а также предлагает анализ цифрового контента. С помощью софта учитель оценивает знания студента по своему предмету в любой момент времени. Если студент плохо справляется с предметом, Knewton может предложить контент, который повышает уровень понимания сложных вопросов. Knewton будет предлагать разные варианты образовательного контента до тех пор, пока не найдет способ научить студента.

Хотя многие обучающие платформы могут похвастаться тем, что они корректируют тестовые вопросы на занятиях, основываясь на предыдущих ответах, процесс управления данными Knewton принципиально отличается, потому что предлагает гипер-персонализированный вариант обучения, создаваемый «на лету» для каждого конкретного пользователя. Сегодня с Knewton работают более 13 миллионов студентов по всему миру, а база данных платформы содержит более 100 000 образовательных материалов, включая видео-лекции и учебные пособия.


Персональные помощники


Fin. Личный помощник по всем вопросам

Fin — это круглосуточная служба помощи, во всем похожая на Siri, Echo или Google Now… кроме того, что действительно работает. Fin использует комбинацию машинного и человеческого интеллекта (за обработкой запросов следят нанятые ассистенты), чтобы находить ответы, отправлять сообщения, обрабатывать заказы и делать всё, что вы ожидаете от личного помощника.

Fin принимает поручения в мобильном приложении, по электронной почте, через SMS или в интернет-чате. Вы можете попросить Fin позвонить, сделать покупки, отправить по электронной почте текст, уведомление о встрече или книгу. Вы можете использовать Fin, чтобы сделать транскрибацию аудио или видео в текст, или просто находить ответы на заданные вами вопросы.


Gatebox. Голографическая аниме-помощница

Gatebox — это устройство, обеспечивающие демонстрацию изображения девушки с голубыми волосами по имени Азума Хикари. У Gatebox есть сенсоры и камера, помогающие системе идентифицировать лицо и движения владельца. Управлять устройством можно с помощью голоса, автоматизируя дом различными способами: включая и выключая свет, устанавливая будильник или просто общаясь с Азумой, которая приветствует вас и напоминает о различных делах.

Азума может даже отправлять хозяину гневные сообщения, если он задерживается, объясняя это тем, что она «чувствует себя одиноко». Однако за возможность общаться с виртуальной девушкой придется немало заплатить — стоимость Gatebox составляет около $2580.


Hound. Повседневный помощник

Приложение Hound, доступное как на iOS, так и на Android, распознает голосовые команды (включая поисковые запросы), делает перевод предложений на другие языки в реальном времени и даже понимает контекстную связь между несколькими запросами. О последнем стоит рассказать подробнее, потому что в этом пункте обычной спотыкаются Siri и Cortana. Любой из ваших поисковых запросов может быть легко уточнен последующими вопросами, поэтому вам не нужно повторять заново. Если вы ищите подходящий отель, то для сужения поиска из всех найденных вариантов спрашиваете «номер с Wi-Fi» или «с тренажерным залом».

Hound находит кафе с бесплатным Wi-Fi в нескольких минутах ходьбы от вас, показывает все отели стоимостью от 200 до 400 долларов за ночь в определенном районе города, и отражает время восхода Солнца за два дня до Нового года. А если спросить у Hound, сколько калорий содержится в 16 яблоках и 4 бананах, он назовет общее количество калорий для всех фруктов. Hound также может рассказать вам, сколько будет стоить самая дешевая поездка на Uber до нужной вам точки.

По заверениям разработчиков из компании SoundHound, которая за 10 лет получила 75 миллионов долларов инвестиций, все прочие цифровые помощники переводят то, что вы говорите в текст, а лишь затем анализируют смысл информации, в то время как Hound пропускает этот шаг и сразу расшифровывает вашу речь.

Hound не использует Google поиск, поэтому иногда странным образом ошибается на простых запросах. По большей части приложение заточено сейчас под поиск заведений, ответы на «странные запросы» и для переводов «на лету».


Mycroft. Первый в мире роботизированный помощник с открытым исходным кодом

Перед вами хаб-устройство на основе Raspberry Pi 3 и Arduino, вдохновленное дизайном роботов из научно-фантастических фильмов. Проект Mycroft  на Kickstarter собрал более 127 000 долларов и еще 160 000 долларов на Indiegogo. Система спроектирована на платформе Snappy Core Ubuntu (предназначена для систем домашней автоматизации, дронов и автономных роботов) и способна обрабатывать команды пользователя на естественном языке. Идея Mycroft заключается в том, чтобы дать возможность пользователям использовать любой тип устройств — настольные компьютеры, мобильные устройства, динамики, роботы — всего, что может пригодиться при обработке естественного языка.

Mycroft может сообщать новости, говорить о погоде, а также управлять другими устройствами по всему дому или в офисе — например, включать кофеварку или играть определенный музыкальный плейлист. Благодаря открытой платформе Mycroft в системе постоянно появляются новые фичи. Нововведения ограничены только воображением разработчика и могут включать в себя что угодно: от контроля беспилотного летательного аппарата до ответов на вопросы о покемонах.


Remi. Siri с приятным интерфейсом

Виртуальный помощник Remi может однажды стать настоящим ИИ — в этом уверены разработчики, которые ставят перед собой амбициозную задачу не просто сделать личного помощника, а построить полномасштабный ИИ, который говорит, думает и, самое главное, учится. Сейчас Remi нельзя назвать особенно умным — он даже не добрался до уровня собаки.


Viv. Помощник со связями

Viv не просто отсылает к веб-поиску, а сам связан с множеством сервисов, что позволяет приложению быстрее и точнее находить ответы на запросы пользователя. Viv может покупать товары, с помощью службы x.ai планировать встречи и даже отправлять запросы для бронирования гостиничного номера или заказа цветов. Viv может понимать намерение пользователя и создавать алгоритм для обработки задачи «на лету», даже если с подобной задачей никогда не сталкивался раньше. Приложение может демонстрировать код обработки каждого запроса. Это гипотетически даст возможность сторонним разработчикам создавать надежный диалоговый интерфейс для своих сервисов, просто пообщавшись с Viv.

Создатели Viv — Даг Киттлаус, Адам Чейер и Крис Бригам — уже более десяти лет работают над проблемой изучения естественного языка, участвовали в создании Siri, а также в проекте разработки ИИ под патронажем DARPA в начале 2000-х годов. Не удивительно, что с таким бэкграундом Samsung согласилась приобрести этого виртуального помощника. Viv продолжает работать как независимая компания, но теперь предоставляет все свои услуги Samsung.


Профессиональные помощники


Clara. Планирование встреч

Clara Labs получили $7 млн инвестиций для создания интеллектуального помощника, удовлетворяющего запросы бизнес-пользователей. Clara может автоматически планировать встречи, самостоятельное выбирая наиболее подходящие для вас места и время. Хотя задача по бронированию конференц-зала кажется очень простой, Clara принимает множество решений — например, старается не попасть на даты, когда вы обычно берете отпуск. Clara не только организует встречи, но и планирует звонки, обеды, время для перерыва на кофе.

Clara, интегрируясь со Slack, CRM и другими системами, меняет модель планирования на предприятии от отдела к отделу. Очевидно, что разработчикам и продавцам нужно разное количество встреч (и, возможно, в разное время) — помощник учитывает эти нюансы.


Julie Desk. Помощник для планирования событий

Интерфейс Julie Desk — это ваша электронная почта. Julie получает от вас письма, а далее, как обычный секретарь, заглядывает в вашу учетную запись Google, Microsoft Exchange или iCloud, чтобы выбрать наиболее оптимальное время и место. Подтверждает у вас данные, добавляет встречу в свое расписание и отправляет всем участникам приглашение.

Французский стартап привлек 2,5 миллиона евро, однако нельзя сказать, что компании удалось создать полноценную умную систему. Каждый шаг ИИ подкрепляется непрерывным наблюдением человека-ассистента. Как утверждает основатель Julie Desk, наблюдение необходимо для обеспечения качества, что особенно важно для крупных корпоративных клиентов.


Kono. Бот-планировщик

Не у всех есть личная секретарша, чтобы управлять своим графиком и организовывать встречи в самое подходящее время. Но смарт-бот Kono, разработанный южнокорейским технологическим стартапом Konolabs, может для каждого пользователя заносить встречи в календарь. Kono извлекает ключевые слова, связанные с планированием, из вашего электронного письма, чтобы понять, когда вы хотите провести встречу. Причем бот анализирует даже такие неопределенные высказывания как «мы можем встретиться когда-нибудь на следующей неделе» или «давайте проведем конференцию во вторник или четверг».

Затем бот организует встречу в то время, которое оптимально подходит для вас, а также для человека, с которым вы хотите провести встречу. Даже при планировании встречи с участием нескольких людей, в том числе живущих в разных часовых поясах, Kono будет оповещать о времени, которое наилучшим образом подходит для всех.

Официальная пробная версия предоставляется бесплатно всем, кто использует календарь Google, G-Suite и Microsoft Office 365.


Evie. Премиум-помощник

Сингапурский стартап (ранее назывался Mimetic) запустил помощника Evie, который, по заверениям разработчиков, экономит более 4 писем, необходимых среднему менеджеру для согласования встречи. Evie также предлагает премиум-функции для бизнеса. К ним относятся возможность работы в корпоративном домене, просмотр доступности сотрудников и координация логистики бронирования конференц-залов.

«Под капотом» у Evie технология с открытым исходным кодом SyntaxNet, созданная на основе нейронной сети Google TensorFlow, а также Stanford CoreNLP — открытая библиотека, предоставляющая набор инструментов для обработки текста (на естественном языке).


X.ai. Виртуальный помощник, самостоятельно согласующий встречи с партнерами

Персонального помощника X.ai нужно всего лишь указать в копии письма своему собеседнику, чтобы бот начал самостоятельно заниматься планированием встречи. Бот узнаёт у собеседника, когда удобно встретиться ему, и назначает встречу на удобное обеим сторонам время.

Базовая версия сервиса, позволяющая запланировать пять совещаний в месяц, предоставляется бесплатно. Стоимость компании X.ai сейчас оценивают в $100 млн.


Zoom.ai. Помощь в работе

Zoom.ai предлагает комплексный подход, который отличается от стандартных чат-ботов: планирование, поиск контактных данных, принятие решения о том, где попить кофе, поиск какой-либо справочной информации о потенциальном подрядчике — список вещей, который может делать сервис в автоматическом режиме. Zoom.ai может понимать смысл написанного на естественном языке и распознавать даже эмоджи, используемые вместо слов.

В настоящее время у стартапа 60 000 индивидуальных пользователей и несколько десятков корпоративных клиентов.



Конкуренция в сфере применения ИИ усиливается. Все чаще стартапы появляются в одной и той же нише — стоит возникнуть одной удачной идеи, как следом идут клоны и копии. Но именно в такой конкурентной среде рождаются и выживают самые ценные проекты. В декабре 2017 года IBM опубликовала больше 120 шаблонов кода для быстрого запуска проектов, связанных с искусственным интеллектом, блокчейном, облачными данными и другими сферами. А это значит, что создать собственный ИИ-проект становится как никогда просто.

Каждый шаблон содержит подробное описание инструментов и ссылку на репозиторий на GitHub, где можно посмотреть коды и ознакомиться с документацией. В следующем году можно ожидать экспоненциального роста разнообразных проектов — от планирования встреч до глобальных революций в биотехе и финтехе.

habr.com

Программа искусственного интеллекта ЭЛИС

Программа искусственного интеллекта ЭЛИС.

 

 

Система искусственного интеллекта ЭЛИС представляет собой программное обеспечение, способное разговаривать как человек на простом языке, управлять устройствами, а также обучаться. С помощью данной программы можно общаться с компьютером, а также взаимодействовать с физическим миром. Программа также использует возможность подключения Ардуино, чтобы создавать системы умного дома, автоматики и т.д.

 

Скачать программу искусственного интеллекта ЭЛИС

 

Описание программы искусственного интеллекта ЭЛИС

Модули программы искусственного интеллекта ЭЛИС

 

Описание программы искусственного интеллекта ЭЛИС:

Программа искусственного интеллекта ЭЛИС – Электронно Логически Интеллектуальная Система. Система искусственного интеллекта ЭЛИС представляет собой программу. Это программное обеспечение, способное разговаривать как человек на простом языке, управлять устройствами, а также обучаться. Данная система не является ассистентом, так как упор идёт на разработку человекоподобной системы, которая сможет обучаться как ребёнок и вести осознанный диалог.

С помощью данной программы можно общаться с компьютером, а также взаимодействовать с физическим миром. Программа также использует возможность подключения Ардуино, чтобы создавать системы умного дома, автоматики и т.д.

Система искусственного интеллекта ЭЛИС построена по модульному принципу. Система универсальна и её функционал наращивается с помощью модулей. Модули могут быть различные, от простых, до сложных.

Программа искусственного интеллекта ЭЛИС самостоятельно ведет диалог с человеком.

Она может самостоятельно начать диалог, может делать это несколько раз, что уже отличает её от голосовых асистентов, которые работают по структуре вопрос – ответ. Программа искусственного интеллекта ЭЛИС самостоятельно принимает решение после того, что скажет человек, и если не знает, её можно обучить.

При поддержке диалога с пользователем система сама обучается. Система способна запоминать несколько ответов на один или множество вопросов и иметь несколько вопросов на один или множество ответов.

Программа искусственного интеллекта ЭЛИС полностью совместима с платформой Ардуино, поэтому можно управлять любыми устройствами. Можно попросить у системы включить свет, система спросит, где именно включить, но можно попросить включить свет сразу в определённом месте, тогда она не будет переспрашивать.

Программа искусственного интеллекта ЭЛИС также способна запускать сторонние приложения и т.д.

 

Модули программы искусственного интеллекта ЭЛИС:

В настоящий момент программа искусственного интеллекта ЭЛИС включает следующие модули:

модуль «Знания» – модуль поиска информации по  WIKIPEDIA. Система знает любое устройство, предмет и так далее, Спросите например, что такое велосипед или что такое яблоко и система расскажет, что это такое,

модуль «Новости». Свежие новости на интересы пользователя. Просто спросите, какие новости или расскажи новости, система расскажет и спросит, надо ли рассказать ещё, ответив да, она расскажет ещё,

модуль «Погода». Погода на сегодня и на завтра по моему городу. Можно узнать температуру, влажность, скорость ветра, будет ли дождь или мороз. Можно спросить, брать ли зонтик сегодня или можно ли одеть сегодня шорты,

модуль «Калькулятор». С помощью данного модуля, система умеет складывать, вычитать, умножать и делить предметы и т.д. Например спросив, сколько будет два яблока плюс два яблока, система ответит четыре яблока. Модуль в разработке,

модуль «Будильник». Модуль позволяет устанавливать любое количество будильников. Установив будильник, система Вас разбудит. Просто надо сказать, разбуди меня в 7 утра. Модуль в разработке,

модуль «Корректировка ответов». Правильная расстановка знаний в базе,

модуль «Праздники, именины, события». Данный модуль позволяет узнать, кому сегодня день имени или какой сегодня праздник,

модуль «Тосты». Модуль позволяет системе говорить различные тосты. Надо попросить, скажи тост,

модуль «Анекдоты». Система знает тысячи анекдотов. Просто попросите её рассказать анекдот, так-же можно попросить рассказать анекдот для взрослых,

модуль «Стихи». Данный модуль превращает систему в поэта. Просто попросите рассказать стих, так-же можно попросить рассказать стих для взрослых,

модуль «Афоризмы». Система знает тысячи афоризмов. Просто попросите её сказать афоризм, так-же можно попросить сказать афоризм для взрослых,

модуль «Управление освещением». С помощью данного модуля, система умеет управлять освещением квартиры или дома. Для этого надо подключить Arduino и Ethernet Shield,

модуль «Угадывание цифры». Система пытается угадать загаданную цифру. Называет предполагаемую цифру, после надо ей сказать, больше или меньше. Модуль в разработке,

модуль «Пользователь». Модуль позволяет изменять данные пользователя, имя, город и т.д. Например чтобы поменять имя, надо сказать, запомни меня зовут Олег и она запомнит,

модуль «Диалог». Анализ диалога. Модуль, который обрабатывает диалог за сутки, анализируя пользователя, обучаясь и т.д.

 

Примечание: описание технологии на примере программы искусственного интеллекта ЭЛИС.

 

карта сайта

искусственный интеллект написать программу онлайн программа пишет программы
искусственный интеллект программа для андроид для управления компьютером 2016 скачать с торрента программы голосовые скачать программу бесплатно
лучшие программы искусственного интеллекта
новейшие программы с искусственным интеллектом
программа для создания искусственного интеллекта
программа виртуальная девушка искусственный интеллект
программа голосовой искусственный интеллект для компьютера скачать
nai программа искусственного интеллекта для пк скачать торрент для компьютера с голосом 2016 скачать
программа использующая искусственный интеллект
программы поиска в системах искусственного интеллекта
рабочая программа дисциплины теория искусственного интеллекта искусственный интеллект
самообучающиеся программы искусственного интеллекта
системы искусственного интеллекта рабочая программа
скачать программу для создания искусственного интеллекта на компьютер 2017 для windows 7 с голосом
скачать программу элис настоящий искусственный интеллект
скачать самообучающуюся программу искусственного интеллекта на компьютер

 

Коэффициент востребованности 20 317

xn--80aaafltebbc3auk2aepkhr3ewjpa.xn--p1ai

Всё, что вам нужно знать об ИИ — за несколько минут / Habr

Приветствую читателей Хабра. Вашему вниманию предлагается перевод статьи «Everything you need to know about AI — in under 8 minutes.». Содержание направлено на людей, не знакомых со сферой ИИ и желающих получить о ней общее представление, чтобы затем, возможно, углубиться в какую-либо конкретную его отрасль.

Знать понемногу обо всё иногда (по крайней мере, для новичков, пытающихся сориентироваться в популярных технических направлениях) бывает полезнее, чем знать много о чём-то одном.

Многие люди думают, что немного знакомы с ИИ. Но эта область настолько молода и растёт так быстро, что прорывы совершаются чуть ли не каждый день. В этой научной области предстоит открыть настолько многое, что специалисты из других областей могут быстро влиться в исследования ИИ и достичь значимых результатов.

Эта статья — как раз для них. Я поставил себе целью создать короткий справочный материал, который позволит технически образованным людям быстро разобраться с терминологией и средствами, используемыми для разработки ИИ. Я надеюсь, что этот материал окажется полезным большинству интересующихся ИИ людей, не являющихся специалистами в этой области.

Введение


Искусственный интеллект (ИИ), машинное обучение и нейронные сети — термины, используемые для описания мощных технологий, базирующихся на машинном обучении, способных решить множество задач из реального мира.

В то время, как размышление, принятие решений и т.п. сравнительно со способностями человеческого мозга у машин далеки от идеала (не идеальны они, разумеется, и у людей), в недавнее время было сделано несколько важных открытий в области технологий ИИ и связанных с ними алгоритмов. Важную роль играет увеличивающееся количество доступных для обучения ИИ больших выборок разнообразных данных.

Область ИИ пересекается со многими другими областями, включая математику, статистику, теорию вероятностей, физику, обработку сигналов, машинное обучение, компьютерное зрение, психологию, лингвистику и науку о мозге. Вопросы, связанные с социальной ответственностью и этикой создания ИИ притягивают интересующихся людей, занимающихся философией.

Мотивация развития технологий ИИ состоит в том, что задачи, зависящие от множества переменных факторов, требуют очень сложных решений, которые трудны к пониманию и сложно алгоритмизируются вручную.

Растут надежды корпораций, исследователей и обычных людей на машинное обучение для получения решений задач, не требующих от человека описания конкретных алгоритмов. Много внимания уделяется подходу «чёрного ящика». Программирование алгоритмов, используемых для моделирования и решения задач, связанных с большими объёмами данных, занимает у разработчиков очень много времени. Даже когда нам удаётся написать код, обрабатывающий большое количество разнообразных данных, он зачастую получается очень громоздким, трудноподдерживаемым и тяжело тестируемым (из-за необходимости даже для тестов использовать большое количество данных).

Современные технологии машинного обучения и ИИ вкупе с правильно подобранными и подготовленными «тренировочными» данными для систем могут позволить нам научить компьютеры «программировать» за нас.

Обзор


Интеллект — способность воспринимать информацию и сохранять её в качестве знания для построения адаптивного поведения в среде или контексте

Это определение интеллекта из (англоязычной) Википедии может быть применено как к органическому мозгу, так и к машине. Наличие интеллекта не предполагает наличие сознания. Это — распространённое заблуждение, принесённое в мир писателями научной фантастики.

Попробуйте поискать в интернете примеры ИИ — и вы наверняка получите хотя бы одну ссылку на IBM Watson, использующий алгоритм машинного обучения, ставший знаменитым после победы на телевикторине под названием «Jeopardy» в 2011 г. С тех пор алгоритм претерпел некоторые изменения и был использован в качестве шаблона для множества различных коммерческих приложений. Apple, Amazon и Google активно работают над созданием аналогичных систем в наших домах и карманах.

Обработка естественного языка и распознавание речи стали первыми примерами коммерческого использования машинного обучения. Вслед за ними появились задачи другие задачи автоматизации распознавания (текст, аудио, изображения, видео, лица и т.д.). Круг приложений этих технологий постоянно растёт и включает в себя беспилотные средства передвижения, медицинскую диагностику, компьютерные игры, поисковые движки, спам-фильтры, борьбу с преступностью, маркетинг, управление роботами, компьютерное зрение, перевозки, распознавание музыки и многое другое.

ИИ настолько плотно вошёл в современные используемые нами технологии, что многие даже не думают о нём как об «ИИ», то есть, не отделяют его от обычных компьютерных технологий. Спросите любого прохожего, есть ли искусственный интеллект в его смартфоне, и он, вероятно, ответит: «Нет». Но алгоритмы ИИ находятся повсюду: от предугадывания введённого текста до автоматического фокуса камеры. Многие считают, что ИИ должен появиться в будущем. Но он появился некоторое время назад и уже находится здесь.

Термин «ИИ» является довольно обобщённым. В фокусе большинства исследований сейчас находится более узкое поле нейронных сетей и глубокого обучения.

Как работает наш мозг


Человеческий мозг представляет собой сложный углеродный компьютер, выполняющий, по приблизительным оценкам, миллиард миллиардов операций в секунду (1000 петафлопс), потребляющий при этом 20 Ватт энергии. Китайский суперкомпьютер под названием «Tianhe-2» (самый быстрый в мире на момент написания статьи) выполняет 33860 триллионов операций в секунду (33.86 петафлопс) и потребляющий при этом 17600000 Ватт (17.6 Мегаватт). Нам предстоит проделать определённое количество работы перед тем, как наши кремниевые компьютеры смогут сравниться со сформировавшимися в результате эволюции углеродными.

Точное описание механизма, применяемого нашим мозгом для того, чтобы «думать» является предметом дискуссий и дальнейших исследований (лично мне нравится теория о том, что работа мозга связана с квантовыми эффектами, но это — тема для отдельной статьи). Однако, механизм работы частей мозга обычно моделируется с помощью концепции нейронов и нейронных сетей. Предполагается, что мозг содержит примерно 100 миллиардов нейронов.

Нейроны взаимодействуют друг с другом с помощью специальных каналов, позволяющих им обмениваться информацией. Сигналы отдельных нейронов взвешиваются и комбинируются друг с другом перед тем, как активировать другие нейроны. Эта обработка передаваемых сообщений, комбинирование и активация других нейронов повторяется в различных слоях мозга. Учитывая то, что в нашем мозгу находится 100 миллиардов нейронов, совокупность взвешенных комбинаций этих сигналов устроена довольно сложно. И это ещё мягко сказано.

Но на этом всё не заканчивается. Каждый нейрон применяет функцию, или преобразование, к взвешенным входным сигналам перед тем, как проверить, достигнут ли порог его активации. Преобразование входного сигнала может быть линейным или нелинейным.

Изначально входные сигналы приходят из разнообразных источников: наших органов чувств, средств внутреннего отслеживания функционирования организма (уровня кислорода в крови, содержимого желудка и т.д.) и других. Один нейрон может получать сотни тысяч входных сигналов перед принятием решения о том, как следует реагировать.

Мышление (или обработка информации) и полученные в результате его инструкции, передаваемые нашим мышцам и другим органам являются результатом преобразования и передачи входных сигналов между нейронами из различных слоёв нейронной сети. Но нейронные сети в мозгу могут меняться и обновляться, включая изменения алгоритма взвешивания сигналов, передаваемых между нейронами. Это связано с обучением и накоплением опыта.

Эта модель человеческого мозга использовалась в качестве шаблона для воспроизведения возможностей мозга в компьютерной симуляции — искуственной нейронной сети.

Искусственные Нейронные Сети (ИНС)


Искусственные Нейронные Сети — это математические модели, созданные по аналогии с биологическими нейронными сетями. ИНС способны моделировать и обрабатывать нелинейные отношения между входными и выходными сигналами. Адаптивное взвешивание сигналов между искусственными нейронами достигается благодаря обучающемуся алгоритму, считывающему наблюдаемые данные и пытающемуся улучшить результаты их обработки.

Для улучшения работы ИНС применяются различные техники оптимизации. Оптимизация считается успешной, если ИНС может решать поставленную задачу за время, не превышающее установленные рамки (временные рамки, разумеется, варьируются от задачи к задаче).

ИНС моделируется с использованием нескольких слоёв нейронов. Структура этих слоёв называется архитектурой модели. Нейроны представляют собой отдельные вычислительные единицы, способные получать входные данные и применять к ним некоторую математическую функцию для определения того, стоит ли передавать эти данные дальше.

В простой трёхслойной модели первый слой является слоем ввода, за ним следует скрытый слой, а за ним — слой вывода. Каждый слой содержит не менее одного нейрона.

С усложнением структуры модели посредством увеличения количества слоёв и нейронов возрастают потенциал решения задач ИНС. Однако, если модель оказывается слишком «большой» для заданной задачи, её бывает невозможно оптимизировать до нужного уровня. Это явление называется переобучением (overfitting).

Архитектура, настройка и выбор алгоритмов обработки данных являются основными составляющими построения ИНС. Все эти компоненты определяют производительность и эффективность работы модели.

Модели часто характеризуются так называемой функцией активации. Она используется для преобразования взвешенных входных данных нейрона в его выходные данные (если нейрон решает передавать данные дальше, это называется его активацией). Существует множество различных преобразований, которые могут быть использованы в качестве функций активации.

ИНС являются мощным средством решения задач. Однако, хотя математическая модель небольшого количества нейронов довольно проста, модель нейронной сети при увеличении количества составляющих её частей становится довольно запутанно. Из-за этого использование ИНС иногда называют подходом «чёрного ящика». Выбор ИНС для решения задачи должен быть тщательно обдуманным, так как во многих случаях полученное итоговое решение нельзя будет разобрать на части и проанализировать, почему оно стало именно таким.

Глубокое обучение


Термин глубокое обучение используется для описания нейронных сетей и используемых в них алгоритмах, принимающих «сырые» данные (из которых требуется извлечь некоторую полезную информацию). Эти данные обрабатываются, проходя через слои нейросети, для получения нужных выходных данных.

Обучение без учителя (unsupervised learning) — область, в которой методики глубокого обучения отлично себя показывают. Правильно настроенная ИНС способна автоматически определить основные черты входных данных (будь то текст, изображения или другие данные) и получить полезный результат их обработки. Без глубокого обучения поиск важной информации зачастую ложится на плечи программиста, разрабатывающего систему их обработки. Модель глубокого обучения же самостоятельно способна найти способ обработки данных, позволяющий извлекать из них полезную информацию. Когда система проходит обучение (то есть, находит тот самый способ извлекать из входных данных полезную информацию), требования к вычислительной мощности, памяти и энергии для поддержания работы модели сокращаются.

Проще говоря, алгоритмы обучения позволяют с помощью специально подготовленных данных «натренировать» программу выполнять конкретную задачу.

Глубокое обучение применяется для решения широкого круга задач и считается одной из инновационных ИИ-технологий. Существуют также другие виды обучения, такие как обучение с учителем (supervised learning) и обучение с частичным привлечением учителя(semi-supervised learning), которые отличаются введением дополнительного контроля человека за промежуточными результатами обучения нейронной сети обработке данных (помогающего определить, в правильном ли направлении движется система).

Теневое обучение (shadow learning) — термин, используемый для описания упрощённой формы глубокого обучения, при которой поиск ключевых особенностей данных предваряется их обработкой человеком и внесением в систему специфических для сферы, к которой относятся эти данные, сведений. Такие модели бывают более «прозрачными» (в смысле получения результатов) и высокопроизводительными за счёт увеличения времени, вложенного в проектирование системы.

Заключение


ИИ является мощным средством обработки данных и может находить решения сложных задач быстрее, чем традиционные алгоритмы, написанные программистами. ИНС и методики глубокого обучения могут помочь решить ряд разнообразных проблем. Минус состоит в том, что самые оптимизированные модели часто работают как «чёрные ящики», не давая возможности изучить причины выбора ими того или иного решения. Этот факт может привести к этическим проблемам, связанным с прозрачностью информации.

habr.com

10 самых важных вех в развитии ИИ на сегодняшний день / Habr

На протяжении своей истории, от первых рассказов Азимова про роботов до AlphaGo, у ИИ были взлёты и падения. Но на самом деле его история только начинается.


Искусственный интеллект пока ещё очень молод. Однако в этой области произошло уже много значимых событий. Некоторые из них привлекли внимание культуры, другие породили взрывную волну, воспринятую только учёными. Вот некоторые ключевые моменты, наиболее сильно повлиявшие на развитие ИИ.


Рассказ Азимова "Хоровод" отмечает первое появление в историях этого знаменитого фантаста «трёх законов робототехники»:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В рассказе «Хоровод» робот Спиди ставится в положение, в котором третий закон входит в противоречие с первыми двумя. Рассказы Азимова про роботов заставили задуматься любителей НФ, среди которых были и учёные, о возможности появления думающих машин. По сей день люди занимаются интеллектуальными упражнениями, применяя законы Азимова к современным ИИ.

2. Алан Тьюринг предложил свою «Игру в имитацию» (1950)



Алан Тьюринг описал первый принцип измерения степени разумности машины в 1950-м.

Предлагаю рассмотреть вопрос «Могут ли машины думать?» Так начиналась влиятельная исследовательская работа Тьюринга 1950 года, разработавшая систему взглядов для рассуждения о машинном разуме. Он задал вопрос о том, можно ли считать машину разумной, если она может имитировать разумное поведение человека.

Этот теоретический вопрос породил знаменитую «Игру в имитацию» [её позже назовут "Тестом Тьюринга" / прим. перев.], упражнение, в котором исследователь-человек должен определить, с кем он переписывается – с компьютером или человеком. Во времена Тьюринга не существовало машин, способных пройти этот тест, нет их и сегодня. Однако его тест дал простой способ определить наличие разума у машины. Также он помог сформировать философию ИИ.

3. Конференция по ИИ в Дартмуте (1956)


К 1955 году учёные всего мира уже сформировали такие концепции, как нейросети и естественный язык, однако ещё не существовал объединяющих концепций, охватывающих различные разновидности машинного интеллекта. Профессор математики из Дартмутского колледжа, Джон Маккарти, придумал термин «искусственный интеллект», объединяющий их все.

Маккарти руководил группой, подавшей заявку на грант для организации конференции по ИИ в 1956. В Дартмут-холл летом 1956 были приглашены многие ведущие исследователи того времени. Учёные обсуждали различные потенциальные области изучения ИИ, включая обучение и поиск, зрение, логические рассуждения, язык и разум, игры (в частности, шахматы), взаимодействия человека с такими разумными машинами, как личные роботы.

Общим консенсусом тех обсуждений стало то, что у ИИ есть огромный потенциал для того, чтобы принести пользу людям. Было очерчено общее поле исследовательских областей, на развитие которых может повлиять машинный интеллект. Конференция организовала и вдохновила исследования в области ИИ на многие годы.

4. Фрэнк Розенблатт создаёт перцептрон (1957)



Фрэнк Розенблатт создал механическую нейросеть в Корнеллской лаборатории аэронавтики в 1957

Базовый компонент нейросети называется "перцептроном" [это лишь самый первый и примитивный тип искусственного нейрона / прим. перев.]. Набор входящих данных попадает в узел, подсчитывающий выходное значение, и выдающий классификацию и уровень уверенности. К примеру, входные данные могут анализировать различные аспекты изображения на основании входных данных и «голосовать» (с определённым уровнем уверенности) за то, есть ли на нём лицо. Затем узел подсчитывает все «голоса» и уровень уверенности, и выдаёт консенсус. В нейросетях сегодняшнего дня, работающих на мощных компьютерах, работают миллиарды подобных структур, связанных между собой.

Однако перцептроны существовали ещё до появления мощных компьютеров. В конце 1950-х молодой психолог-исследователь Фрэнк Розенблатт создал электромеханическую модель перцептрона под названием Mark I Perceptron, хранящуюся сегодня в Смитсоновском институте. Это была аналоговая нейросеть, состоявшая из сетки светочувствительных элементов, соединённых проводами с банками узлов, содержащих электромоторы и поворотные резисторы. Розенблатт разработал «перцептронный алгоритм», управлявший сетью, которая постепенно подстраивала силу входных сигналов так, чтобы в итоге правильно идентифицировать объекты – по сути, обучалась.

Учёные спорили о значимости этой машины вплоть до 1980-х. Она сыграла важную роль по созданию физического воплощения нейросети, которая до тех пор существовала в основном только в виде научной концепции.

5. ИИ сталкивается со своей первой зимой (1970-е)


Большую часть своей истории ИИ существовал только в исследованиях. Большую половину 1960-х правительственные агентства, в частности, DARPA, вливали деньги в исследования и практически не требовали отчёта по инвестициям. Исследователи ИИ часто преувеличивали потенциал своей работы, чтобы продолжать получать финансирование. Всё изменилось в конце 1960-х и начале 1970-х. Два отчёта – один от рекомендательного совета по автоматической обработке языка (ALPAC) для правительства США 1966 года, второй от Лайтхилла для правительства Британии 1973 года – прагматически оценили прогресс в исследованиях ИИ и выдали весьма пессимистичный прогноз о потенциале данной технологии. В обоих отчётах ставилось под вопрос наличие ощутимого прогресса в различных областях исследований ИИ. Лайтхилл в своём отчёте утверждал, что ИИ для задач распознавания речи будет крайне сложно масштабировать до размеров, которые смогут быть полезными правительству или военным.

В итоге правительства США и Британии начали урезать финансирование исследований ИИ для университетов. DARPA, без проблем финансировавшее исследования ИИ в 1960-х, стало требовать от проектов чётких временных рамок и подробного описания предполагаемых результатов. В итоге стало казаться, что ИИ не оправдал ожиданий, и никогда уже не сможет достичь уровня человеческих возможностей. Первая «зима» ИИ продлилась все 1970-е и 80-е.

6. Приход второй зимы ИИ (1987)


1980-е начались с разработки и первых успехов "экспертных систем", хранивших большие объёмы данных и эмулировавшие процесс принятия решений людьми. Технологию изначально разработали в университете Карнеги-Меллона для компании Digital Equipment Corporation, а затем другие корпорации начали быстро внедрять её. Однако экспертные системы требовали дорогого спеиализированного оборудования, и это стало проблемой, когда начали появляться сходные по мощности и более дешёвые рабочие станции от Sun Microsystems а также персональные компьютеры от Apple и IBM. Рынок экспертных компьютерных систем рухнул в 1987, когда с него ушли основные производители оборудования.

Успех экспертных систем в начале 80-х вдохновил DARPA на увеличение финансирования исследований ИИ, но вскоре это вновь поменялось, и агентство урезало большую часть этого финансирования, оставив всего несколько программ. И снова термин «искусственный интеллект» в исследовательском сообществе стал почти запретным. Чтобы их не воспринимали, как непрактичных мечтателей в поисках финансирования, исследователи начали использовать другие названия для работы, связанной с СС – «информатика», «машинное обучение» и «аналитика». Эта, вторая зима ИИ продолжалась вплоть до 2000-х.

7. IBM Deep Blue побеждает Каспарова (1997)



IBM Deep Blue победила лучшего шахматиста мира, Гарри Каспарова, в 1997.

Общественное представление об ИИ улучшилось в 1997 году, когда шахматный компьютер Deep Blue от IBM победил тогдашнего чемпиона мира Гарри Каспарова. Из шести игр, проводившихся в телестудии, Deep Blue выиграла в двух, Каспаров в одной, а три окончились вничью. Ранее в том году Каспаров победил предыдущую версию Deep Blue.

У компьютера Deep Blue было достаточно вычислительных мощностей, и он использовал «метод грубой силы», или полный перебор, оценивая 200 млн возможных ходов в секунду и подбирая наилучший. Возможности людей ограничиваются оценкой лишь порядка 50 ходов после каждого хода. Работа Deep Blue была похожа на работу ИИ, но компьютер не размышлял о стратегиях и не учился игре, как смогут делать последовавшие за ним системы.

И всё же победа Deep Blue над Каспаровым впечатляющим образом вернула ИИ в круг общественного внимания. Некоторые люди были очарованы. Другим не понравилось, что машина обыграла эксперта в шахматах. Инвесторы были впечатлены: победа Deep Blue на $10 подняла стоимость акций IBM, выведя их на максимум того времени.

8. Нейросеть видит кошек (2011)


К 2011 году учёные из университетов всего мира говорили о нейросетях и создавали их. В том году программист Джефф Дин из Google познакомился с профессором информатики из Стэнфорда Эндрю Ыном. Вдвоём они замыслили создание большой нейросети, обеспеченной огромной вычислительной энергией серверов Google, которой можно будет скормить огромный набор изображений.

Созданная ими нейросеть работала на 16 000 серверных процессорах. Они скормили ей 10 млн случайных и неразмеченных кадров с видеороликов YouTube. Дин и Ын не просили нейросеть выдать какую-то конкретную информацию или разметить эти изображения. Когда нейросеть работает таким образом, обучаясь без учителя, она естественным образом пытается найти закономерности в данных и формирует классификации.

Нейросеть обрабатывала изображения три дня. Затем она выдала три размытых изображения, обозначающих визуальные образы, которые она снова и снова встречала в обучающих данных – лицо человека, тело человека и кота. Это исследование стало серьёзным прорывом в использовании нейросетей и обучении без учителя в компьютерном зрении. Также оно отметило начало проекта Google Brain.

9. Джоффри Хинтон спустил с поводка глубокие нейросети (2012)



Исследование Джоффри Хинтона помогло возродить интерес к глубокому обучению

Через год после прорыва Дина и Ына профессор Торонтского университета Джоффри Хинтон с двумя своими студентами создали нейросеть для компьютерного зрения AlexNet для участия в соревновании по распознаванию изображений ImageNet. Участники должны были использовать свои системы для обработки миллионов тестовых изображений и определять их с наивысшей возможной точностью. AlexNet выиграла соревнование с процентом ошибок в два с лишним раза меньшим, чем у ближайшего конкурента. В пяти вариантах подписи к изображению, данных нейросетью, только в 15,3% случаев не было правильного варианта. Предыдущим рекордом было 26% ошибок.

Эта победа убедительно показала, что глубокие нейросети, работающие на графических процессорах, куда как лучше других систем могут точно определять и классифицировать изображения. Это событие, возможно, сильнее остальных повлияло на возрождение интереса к глубоким нейросетям, и заслужило Хинтону прозвище «крёстный отец глубокого обучения». Вместе с другими гуру в области ИИ, Йошуа Бенджио и Яном Лекуном, Хинтон получил долгожданную премию Тьюринга в 2018.

10. AlphaGo обыгрывает чемпиона мира по го (2016)


В 2013 году исследователи британского стартапа DeepMind опубликовали работу, где было описано, как нейросеть научилась играть и выигрывать в 50 старых игр от Atari. Под впечатлением от этого компанию купила Google – как говорят, за $400 млн. Однако главная слава DeepMind была ещё впереди.

Через несколько лет учёные из DeepMind, теперь уже в рамках Google, перешли от игр Atari к одной из самых старых задач ИИ – японской настольной игре го. Они разработали нейросеть AlphaGo, способную играть в го и обучаться во время игры. Программа провела тысячи партий против других версий AlphaGo, обучаясь на основе проигрышей и выигрышей.

И это сработало. AlphaGo обыграла величайшего игрока в го в мире, Ли Седоля, со счётом 4:1 в серии игр в марте 2016. Процесс снимали для документального фильма. При его просмотре трудно не заметить грусть, с которой Седоль воспринял проигрыш. Казалось, что проиграли все люди, а не только один человек.

Последние продвижения в области глубоких нейросетей настолько сильно изменили область ИИ, что реальная его история, возможно, только лишь начинается. Нас ждёт много надежд, шумихи и нетерпения, но сейчас уже ясно, что ИИ повлияет на все аспекты жизни XXI века – и возможно даже сильнее, чем в своё время это сделал интернет.

habr.com

имитация интеллекта, обман и реальные достижения / Mail.ru Group corporate blog / Habr

С каких пор программы научились выдавать себя за людей? Каким образом понять, искусная ли перед нами обманка или по-настоящему сильный ИИ? Когда программа справится с машинным переводом или напишет свой первый роман? Сергей oulenspiegel Марков, автор материала «Играть на уровне бога: как ИИ научился побеждать человека», возвращается к теме умных машин в нашей новой нейронной статье.


В конце 30-х годов прошлого века, когда еще не были созданы первые электронные вычислительные машины, вопросами «разумности» машин стали задаваться специалисты по computer science. Если нечто выглядит как кошка, мяукает как кошка, ведет себя как кошка, в любом эксперименте проявляет себя как кошка, то, наверное, это кошка. Эту идею сформулировал Альфред Айер — английский философ-неопозитивист, представитель аналитической философии.

Всеми нами любимый Алан Тьюринг был более социализирован, чем Айер. Тьюринг любил ходить на вечеринки, а в то время среди интеллектуальной публики была распространена интересная забава — «Игра в имитацию». Заключалась игра в том, что девушку и парня запирали в две разные комнаты, оставляя под дверью широкую щель, в которую участники игры могли просовывать записки с вопросами. Человек, который находился в комнате, писал на вопросы какие-то ответы. Задачей игры было угадать, в какой комнате находится парень, а в какой — девушка. Тьюринг предположил следующее: «А давайте мы будем похожую процедуру использовать для того, чтобы понять, создали ли мы тот самый универсальный ИИ».

Первая программа, которая могла общаться с человеком путем определенной переписки — это ELIZA, созданная в 1966 году. Программа пыталась выдать себя в эксперименте не просто за человека, а за психиатра. Ее стиль общения носит пародийный характер. То есть она говорит на специфическом психиатрическом жаргоне, задает соответствующие типовые вопросы. В принципе, эта программа представляет собой большой набор правил, по которому она находила определенные паттерны в речи человека. В ответ на наличие соответствующего паттерна входной информации, ELIZA определенным образом трансформировала его и выдавала информацию на выход.

Программа могла в некоторых ситуациях людей одурачить. Был проведен эксперимент «AOLiza», когда программа общалась через сеть America Online со случайно выбранными пользователями, и многие из них не догадывались, что в данном случае с ними общалась машина. Понятно, что этот эксперимент нельзя считать хоть каким-то серьезным приближением к прохождению теста Тьюринга.

Cамо название программы ELIZA произошло от имени героини Бернарда Шоу из пьесы «Пигмалион», повествующей о том, как лондонский профессор фонетики Генри Хиггинс пытается из девушки, представительницы общественных низов, сделать настоящую леди, обучая ее правилам поведения и языку высшего общества.

Интересно, что вторая программа такого рода (чат-бот), созданная в 1972 году Кеннетом Колбаем из Стэнфордского университета, была в своем роде шуточной дискуссией с авторами программы ELIZA. Она называлась PARRY. Если ELIZA пыталась выдать себя за врача, то программа PARRY пыталась выдать себя за пациента. PARRY считала себя параноидальным шизофреником.

Интересно, что программа хорошо обманывала профессиональных психиатров. В экспериментах оказалось, что 48% психиатров не в состоянии понять, имеют ли они дело с человеком или с программой. Но здесь, опять же, никакой чистоты эксперимента не было. Если у человека существуют определенные дисфункции, то его поведение может в некоторых ситуациях быть достаточно автоматическим.

Интересная разработка тех времен, которая произвела очень большое впечатление – это программа SHRDLU. Название SHRDLU образовано от ETAOIN SHRDLU — так расположены алфавитные клавиши на линотипах (в соответствии с убыванием частоты появления букв в английском языке). Как, к примеру, сейчас ЙЦУКЕН и ФЫВАПРОЛДЖ.

У SHRDLU был небольшой мир, в котором было представлено ограниченное количество объектов. Это были пирамидки, различные кубики, коробка. И SHRDLU умела общаться на естественном языке с человеком, обсуждая то, что происходит в этом мире, и умела выполнять команды, которые отдавал на естественном языке человек. При этом лексика никак не была ограничена, то есть человек говорить что угодно, а программа могла достаточно свободно отвечать. Вот пример работы SHRDLU:

Человек: Что лежит в коробке?
Компьютер: Синяя пирамидка и синий блок.
Человек: На чем лежит пирамидка?
Компьютер: На коробке.
Человек: Как много блоков находится не в коробке?
Компьютер: Четыре.
Человек: Хотя бы один из них более тонкий, чем тот, про который я тебе говорил? На чем-то он стоит?
Компьютер: Да, стоит на столе.
Человек: Может ли стол собирать блоки?
Компьютер: Нет.
Человек: Может ли пирамидка стоять на блоке?
Компьютер: Да.
Человек: Может ли пирамидка стоять на пирамидке?
Компьютер: Не знаю.
Человек: Хорошо. Поставь пирамидку одну на другую.
Компьютер: Не получается.
Человек: Поставь, пожалуйста, два красных блока друг на друга. Либо зеленый куб, либо пирамидку. Сможешь?» И SHRDLU берет эти блоки, начинает ими оперировать.

Даже сейчас такого рода демонстрация выглядит впечатляющей. Интересно, что исходники SHRDLU можно скачать, программа написана на LISP, есть даже какой-то современный визуализатор под Windows. Если вы откроете ее исходники, то вы увидите, что программа состоит из огромного количества хитроумных правил.

Когда читаешь эти правила, то понимаешь, насколько изощренная логика заложена в программу. Терри Виноград, по всей видимости, проводил много экспериментов, давая возможность разным людям общаться с этой системой. Мирок SHRDLU очень маленький: он может быть описан примерно 50 разными словами. И в рамках такого маленького пространства можно создать впечатление интеллектуального поведения у системы.


Однажды Тьюринга приперли к стене и прямо спросили: «Когда программы пройдут тесты?». Тьюринг предположил, что в 2000 году появятся машины, использующие 109 бит памяти, способные обманывать человека в 30% случаев.

Интересно проверить, сбылся ли прогноз Тьюринга в 2016 году. Программа «Eugene Goostman» изображает из себя мальчика из Одессы. В первом тесте, состоявшемся в 2012 году, программа смогла обмануть судей в 20,2% случаев. В 2014 году в тесте эта же программа, уже модернизированная, в тестах, организованных Университетом Рединга, смогла обмануть судей в 33% случаев. Грубо говоря, с ошибкой плюс-минус 10 лет Тьюринг примерно попал в прогноз.

Потом появилась программа «Соня Гусева», и она в 2015 году смогла обмануть судей в 47% случаев. Стоит отметить, что процедура тестирования предполагает ограничение времени общения экспертов с программой (обычно около 5 минут), и в свете данного ограничения результаты уже не выглядят столь однозначными. Однако для решения многих практических задач, скажем, в области автоматизации SMM, этого более чем достаточно. Отличить продвинутого рекламного бота от человека на практике, скорее всего, не сможет большинство пользователей социальных сетей.

Наверное, самым известным и серьезным возражением на эти успехи является ответ философа Джона Сёрля, который предложил умственный эксперимент, названный «Китайская комната». Представим себе, что есть закрытая комната, в ней сидит человек. Мы знаем, что человек не понимает китайского языка, не сможет прочитать то, что написано китайскими иероглифами на бумаге. Но у нашего подопытного есть книга с правилами, в которой записано следующее: «Если у тебя на входе такие-то иероглифы, то ты должен взять вот такие иероглифы, и составить их в таком порядке». Он открывает эту книгу, она написана на английском, смотрит, что ему подали на вход, а дальше в соответствии с этими правилами формирует ответ, и скидывает его на выход. В определенной ситуации может показаться, что внутри комнаты находится человек, на самом деле понимающай китайский язык. Но ведь индивид внутри комнаты не знает китайского языка по постановке задачи. Получается, что когда эксперимент поставлен по канонам Тьюринга, он, на самом деле, не свидетельствует о том, что внутри сидит некто, понимающий китайский язык. Вокруг этого аргумента развернулась большая полемика. На него есть типовые возражения. Например, аргумент, что если сам Джон не понимает китайский язык, то вся система в целом, составленная из Джона и набора правил, уже обладает этим самым пониманием. До сих пор пишутся статьи в научной прессе на эту тему. Однако бо́льшая часть специалистов по computer science считают, что эксперимент Тьюринга достаточен для того, чтобы сделать определенные выводы.


От машин, которые лишь притворяются ИИ, перейдем к программам, реально превосходящим возможности человека. Одна из задач, напрямую связанная с созданием ИИ — это задача автоматизированного перевода. В принципе, автоматизированный перевод появился задолго до появления первых электронных машин. Уже в 1920-е годы были построены первые механические машины, основанные на фототехнике и причудливой электромеханике, которые были предназначены для ускорения поиска слов в словарях.

Мысль использовать ЭВМ для перевода была высказана в 1946 году, сразу после появления первых подобных машин. Первая публичная демонстрация машинного перевода (так называемый Джорджтаунский эксперимент) состоялась в 1954 году. Первый серьезный заход с серьезными деньгами под решение этой задачи был осуществлен в начале 1960-х годов, когда в США были созданы системы, предназначенные для перевода с русского языка на английский. Это были программы MARK и GAT. И в 1966 году был опубликован интересный документ, посвященный оценке существующих технологий машинного перевода и перспектив. Содержание этого документа можно свести к следующему: всё очень-очень-очень плохо. Но, тем не менее, бросать не надо, надо продолжать гранит грызть.

В Советском Союзе тоже были такие исследования, например группа «Статистика речи», возглавляемая Раймундом Пиотровским. Сотрудниками его лаборатории была основана известная фирма ПРОМТ, разработавшая первую отечественную коммерческую программу машинного перевода, базирующуюся в том числе на идеях Пиотровского. Еще где-то к 1989 году была выведена оценка, что система автоматизированного перевода позволяет примерно в 8 раз ускорить работу переводчика. Сейчас эти показатели, наверное, еще немножко улучшились. Конечно, сравниться с переводчиком ни одна система не может, но многократно ускорить его работу в состоянии. И с каждым годом показатель влияния на работу переводчиков растет.

Самой важной вехой, случившейся за последние десятилетия, стал приход на сцену систем, делающих упор на чисто статистические методы. Еще в 1960—1970 годы было понятно, что подходы, основанные на составлении ручных семантических карт языка и синтаксических структур, по всей видимости, ведут в тупик, поскольку масштаб работы невероятно велик. Как считалось, невозможно в принципе поспеть за изменяющимся живым языком.

Сорок лет назад лингвисты имели дело с достаточно маленькими языковыми корпусами. Лингвисты могли либо вручную обрабатывать данные — взять и посчитать количество таких-то слов в «Войне и мире», составить частотные таблицы, проделать первичный статистический анализ, но трудозатраты на выполнение таких операций были колоссальны. И здесь ситуация кардинально изменилась ровно тогда, когда появился Интернет, потому что вместе с Интернетом появилось огромное количество корпусов на естественных языках. Возник вопрос, как бы так сделать систему, которая в идеале не будет знать про язык ничего или почти ничего, но при этом будет на вход получать гигантские корпуса? Анализируя эти корпуса, система автоматически будет достаточно хорошо переводить тексты с одного языка на другой. Этот подход реализован, например, в Google Translate, то есть это система, за работой которой стоит очень мало работы лингвистов. Пока что качество перевода у систем предыдущего поколения — LEC, Babylon, PROMT — выше, чем у Google Translate.

Здесь проблема упирается в то, какой нам нужен препроцессинг для естественного языка, чтобы результаты можно было бы загнать в хорошие предиктивные модели типа сверточных нейронных сетей, и на выходе получить то, что нам нужно. Как препроцессинг должен быть построен, какие специфические знания о естественном языке должны в нем быть, чтобы решить дальнейшую задачу обучения системы?

Вспомним историю «сосиски в тесте» (sausage in the father-in-law). То есть существует сосиска в тесте, но «в тесте» означает не тесто, а тестя. ИИ должен понимать целый ряд человеческих культурных особенностей. Он должен понимать, что, скорее всего, в этом контексте предполагается практика обволакивания тестом при приготовлении сосисок, а не практика помещения сосисок в тестя. Это не значит, что вторая практика не существует. Может быть, в каком-то контексте адекватным переводом будет как раз вставить сосиску в тестя. И здесь только пониманием этих самых cultural references, которые присутствуют в естественном языке на каждом шаге, можно добиться успешного перевода. Либо, может быть, это какая-то статистика, связанная с тем, что на основе статистического анализа корпусов мы просто видим, что в текстах такой тематики чаще всего используется перевод про «сосиску, помещенную в тесто».

Другой пример связан с котом, который родил трех котят: двух белых, одного афроамериканца. Опять же, какой огромный культурный пласт выплывает здесь под переводом. На самом деле, то, что сюда попал афроамериканец — это некий заход в сторону понимания культурных особенностей современного общества. Пока эти проблемы решаются разными костылями типа задания тематики текста. То есть мы можем сказать, что переводим текст по алгебре. И тогда программа должна понимать, что «Lie algebra» — это «Алгебра Ли», а не «алгебра Лжи». Так или иначе, это может работать, но в универсальном плане нам пока очень далеко до системы, которая будет действительно сравнима по качеству с человеком-переводчиком.

В последние годы в сферу машинного перевода активно приходят нейросетевые технологии. Специфическая топология рекуррентных нейронных сетей — так называемая долгосрочно-краковременная архитектура (LSTM — Long short-term memory), применяемая для анализа высказываний, оказалась хорошо применимой для решения задач перевода. Современные тесты показывают, что применение LSTM-сетей позволяет с небольшими трудозатратами достичь качества перевода сопоставимого с уровнем качества конвенциональных технологий.

Еще одна забавная задачка — это сочинение стихов. Если посмотреть на чисто техническую сторону вопроса, как зарифмовать слова и положить их в определенный стихотворный размер, то эта задача была очень простой еще в 1970-е годы, когда Пиотровский начинал ею заниматься. У нас есть словарь слов с ударениями, есть ритмические карты стихотворных размеров — взяли и положили слова в этот размер. Но тут хотелось бы писать что-то осмысленное. В качестве первой мушки-дрозофилы была взята поэзия скальдов, поскольку в ней существует очень простой и четко формулируемый канон.

Гудрун из мести
Гор деве вместе
Хар был умелый
Хамдир был смелый
Сынов убила.
С Ньердом не мило.
Конесмиритель.
Копьегубитель.

— Торд сын Сьярека, перевод С.В. Петрова

Стихотворение скальдов состоит из так называемых кеннингов, и каждый кеннинг — это просто сочетание нескольких слов, имеющее абсолютно четкую эмоционально-смысловую окраску. Все стихотворение составляется из последовательности кеннингов. Задача для программы, сочиняющей стихи, может быть сформулирована таким образом: напиши ругательное стихотворение о вороне. Соответственно, программа по этим критериям из своей библиотеки кеннингов выбирает подходящие, а затем складывает из них стихотворение. Этот эксперимент похож на эксперимент Терри Винограда с SHRDLU, потому что здесь тоже очень простое модельное пространство, и в нем примитивные подходы могут работать, помогая получать неплохие результаты.


Это машинный корчеватель. Сейчас мы объясним, зачем он тут нужен. Программа SCIgen генерирует наукоподобный бред. Вообще, она это делает на английском языке, но тут можно сделать комбо — взять программу-переводчик и наукоподобный бред с правильными словарями перевести на русский язык. Получится уже бред второго порядка.

К чему мы ведем? Есть такая проблема: обязательное требование для человека, собирающегося защищать диссертацию, иметь несколько публикаций по тематике своей диссертации в журналах из списка Высшей аттестационной комиссии (ВАК). Соответственно, вокруг этого требования развернулся определенный поточный бизнес, а именно появились журналы, принимающие что угодно к публикации. Формально в ВАКовском журнале должен быть рецензент, который должен прочитать ваш текст, и сказать «да, мы принимаем к публикации эту статью» или «нет, не принимаем». Если рецензент говорит «мы принимаем», то вам условно говорят «вы платите суму денег X, и мы вашу статью публикуем». Давно уже у ученых закралось подозрение, что не всегда присутствует человек в процессе оценки.

Известный биоинформатик Михаил Гельфанд при помощи SCIgen сгенерировал наукоподобный бред, перевел его с помощью программы на русский язык, и разослал в целый ряд ваковских изданий статью, которая называлась «Корчеватель: алгоритм типичной унификации точек доступа и избыточности». Людям, которые занимаются алгоритмами или корчевателями, более-менее понятно, что это нечто очень странное, но оказалось, что в России нашелся как минимум один ВАКовский журнал, который принял эту статью к публикации.


В 2013 году Дариус Казими запустил проект «Национальный месяц создания романов», в рамках которого программа генерировала текст. Было использовано некоторое количество чат-ботов, которые были помещены в некое условное модельное пространство, где они взаимодействовали. В 2016 году разработчики из японского университета Хакодате написали программу, которая написала роман «День, когда компьютер пишет роман». Работа вышла в финал японского литературного конкурса и обогнала 1450 других произведений, написанных людьми. Совсем недавно стартовал проект, в рамках которого программа прочтет 2865 романов на английском языке и затем попробует написать свой собственный роман. По идее, к концу 2016 года у нас будет какая-то обратная связь про этот проект. Или не будет, если всё закончится ничем.

Есть и другие задачи. Например, достаточно рутинная задача, связанная с написанием информационных текстов для коммерческого сектора. Грубо говоря, для какого-нибудь сайта компании вы пишете рассказ о том, какая это компания, чем занимается. Или вы пишете новости путем рерайта. И есть инструменты, помогающие человеку провести анализ того, что он написал (например сайт Главред.ру, осуществляющий поиск недостатков в текстах, написанных в информационном стиле).

Есть инструменты, которые сейчас активно используются писателями. Помимо анализа орфографии, синтаксиса, стилистики текста, они помогают работать над сюжетом. Писатель может расписывать, что и где происходит в сюжете, иметь карту событий в романе, хранить отношения между героями, трансформирующиеся определенным образом во времени.

А вот приложение Summly, которое позволяет любую длинную статью ужать до нескольких предложений. Summly читает за вас новости, отжимает из них воду, делает из них такое summary, содержащее максимум 400 слов, и вы читаете уже «выжимку». Это нужно тем, кто хочет читать много новостей, но не хочет читать «воду». Интересно, что эту систему разработал простой английский школьник, который затем продал её за 30 млн долларов Yahoo.


Большой сегмент научной деятельности называется Civil Science, то есть это гражданская наука, когда не ученых, а обычных людей привлекают к решению различных научных задач. В этом сегменте большой проект сделал Массачусетский технологический институт.

Жил-был мышонок Гарольд. Его, как водится у ученых, убили, мозг заморозили, нарезали тонкими микронными слоями, засунули эти срезы в сканирующий электронный микроскоп, и получили кучу сканов этих срезов. Сканов этих было так много, что всему научному коллективу, который работает над этим проектом, чтобы расшифровать структуру одной только зрительной коры мышонка, нужно было бы потратить примерно 200 лет. Поэтому ученые из Массачусетского технологического придумали следующий коварный план. Они сделали онлайн-игру, в которой раздают пользователям случайным образом эти самые срезы, и дают задание пользователям срезы по определенным правилам раскрашивать. У вас есть цветные маркеры, и вы с их помощью раскрашиваете свой срез. Если вы сделали это правильно, то вам дают много очков, а если вы сделали неправильно, то очков мало. Вы можете мериться количеством очков с другими участниками этой игры. Почти также увлекательно, как ловить покемонов, но гораздо полезнее.

Ученые из Массачусетского технологического — не простые ребята. На самом деле, у них есть нейронная сеть, в которую дальше пихают все обработанные игроками картинки, там делается свертка, нейронная сеть обучается, и дальше получается нейронная сеть, которая сама, используя срезы, восстанавливает трехмерную структуру синоптических связей.

Эти нейробиологические исследования имеют большое прикладное значение. Те самые сверточные нейронные сети, которые сейчас активно используются в обработке изображений, например в Prisma, были построены на результатах изучения зрительной коры.


Знаменитый футуролог Рэй Курцвейл раньше говорил, что универсальный искусственный интеллект будет создан в 2045 году, а сейчас он сбросил оценку до 2029 года.

В начале этого года случилась маленькая сенсация. Нейробиологи нашли вторичный контур связи между нейронами через астроциты глиальной ткани. Даже команда проекта компьютерного моделирования неокортекса человека Blue Brain заявила, что в новой модели, которую они собираются презентовать, уже включен этот контур. У них по таймлайну к 2022 году нужно показать модель мозга человека. Они считают, что мозг человека — это примерный эквивалент 1000 мозгов крыс. Возможно, в этом году нас ожидает ещё одно важное открытие в этой области — группа исследователей из Университета Калгари и Университета Алберты (Канада) предположили, что в мозге могут существовать и фотонные связи. Оптические сигналы могут распространяться через миелиновые оболочки. Соответствующее исследование опубликовано на биологическом сервере препринтов BioRXiv.

Везде, где мы используем нейронные сети, мы сталкиваемся с ограниченным числом вычислительных ядер в машине. Если бы число вычислительных ядер было примерно равно числу синапсов, мы бы достигли максимальной производительности за счет распараллеливания. Но ядер маловато. Поэтому сейчас в разных задачах, связанных с нейропроцессингом, где мы пытаемся скопировать то решение, которое предложила природа, идет поиск в направлении создания либо специализированного железа (нейроморфические процессоры), либо использования каких-то устройств, которые лучше подходят для эмуляции нейронных сетей. Например, Microsoft в прошлом году опубликовала статью, посвящённую использованию FPGA как раз для моделирования нейронной сети. Существующие нейросетевые фреймворки, например CNTK, TensorFlow, Caffe, способы использовать для нейросетевых вычислений процессоры видеокарт.

Другой известный проект TrueNorth, создаваемый IBM в рамках государственной программы DARPA SyNapse, остается пока единичным процессором для военных и стоит несколько миллионов долларов. При этом IBM создала целый институт, который разработал специальный язык программирования для этой железки. В открытом доступе результаты этой работы мы, скорее всего, увидим только через N лет. Именно поэтому про TrueNorth в научных новостях говорят, а какого-то движения в community вокруг него нет.

Альтернативным образом развивается направление прямого улучшения мозга. Например, была создана радиоуправляемая крыса. Есть истории, когда берут тележку, к ней подключают мозг крысы, и эта тележка катается по лабиринту. Более того, подобные проекты есть и с мозгом приматов. А это очень интересно, ведь обезьяны типа бонобо или шимпанзе демонстрируют уровень развития интеллекта, сопоставимый с уровнем трехлетнего ребенка.

В связи с успехами в области искусственного интеллекта, возникает вопрос: что же будет дальше, куда мы идем как вид и как технологическая цивилизация? С этим связана одна интересная история, уходящая в истоки человеческой эволюции: наш интеллект это не более чем продукт эволюционного компромисса. Неограниченное увеличение объёма мозга и его сложности невозможно. Во-первых, мозг потребляет очень много энергии, около 20% от общего потребления, хотя его собственная масса около 2% от массы тела. Кроме того, чем больше голова, тем сложнее роды у обезьян. Смертность, травмы при родах сильно возрастают с увеличением головы. Сейчас же, если мы создаем искусственную копию мозга, то мы в известной мере свободны от этих ограничений. Мы можем заведомо обеспечить такой мозг бо́льшим количеством энергии, можем построить бо́льшую нейронную сеть. Такая система по уровню своего интеллектуального развития будет обходить человека по всем направлениям. Мы уже затрагивали тему, к чему в итоге может привести развитие ИИ, но стоит коснуться еще одного варианта развития событий. Вариант на самом деле очень старый и в фантастических произведениях не раз уже появлялся.

В романе Герберта Франке «Клетка для орхидей» земляне используют систему типа «аватар» и с ее помощью исследуют далекую звездную систему. Они оказываются на планете, где находят руины древней цивилизации. На окраинах давно покинутого города они видят, грубо говоря, уровень технологий а-ля наш XX век. Дальше они продвигаются к центру, периметр города сокращается, все более высокие технологии попадаются им. Они приближаются к самому ядру города, и встречаются наконец-то с машинами, которые говорят: «Слушайте, ребята, дальше всё, нельзя пройти. Наши создатели там живут, им хорошо, вы их можете потревожить. Идите отсюда». Люди всё же как-то пробиваются, где-то уговорами, где-то силой. И что они видят? Они видят гигантские чаны, в которых плавают дальние-дальние потомки создателей этих машин, у которых к тому моменту мозг атрофировался, остались одни центры удовольствия, в которые внедрены электроды, по которым ритмически проходят электрические импульсы. Потомки некогда великой цивилизации живут в абсолютном счастье, расслабленности, гармонии с собой и с природой.


Вместо заключения коснемся темы отставания от Запада в направлении исследований ИИ. На самом деле наука сейчас носит во многом интернациональный характер. Просто наши хорошие исследователи, нейрофизиологи, специалисты по computer science публикуются в международной прессе и мало публикуются в прессе российской. Вообще говоря, зачастую публикация в российском журнале с точки зрения научной репутации зачисляется не в «плюс», а в «минус» учёному, потому что обычно это означает, что результаты работы «не дотянули» до уровня стандартов международных научных изданий. Но это не значит, что никаких интересных проектов у нас нет. Например, в России было проведено значимое исследование с reverse engineering нервной системы червя. Плюс есть комьюнити, которое абсолютно интернационально, в него входят энтузиасты, которые обсуждают алгоритмы, делают opensource-проекты. А о некоторых крупных проектах еще только предстоит рассказать. До встречи в следующем посте!

habr.com

как искусственный интеллект помогает в бизнесе и жизни / Habr

Читайте оригинал статьи в Блоге DTI.

В работе Oxford Martin School 2013 года говорилось о том, что 47% всех рабочих мест может быть автоматизировано в течение следующих 20 лет. Основным драйвером этого процесса является применение искусственного интеллекта, работающего с большими данными, как более эффективной замены человеку.

Машины теперь способны решать все больше процессов, за которые раньше отвечали люди. Кроме того, делают это качественнее и во многих случаях дешевле. О том, что это значит для рынка труда, в июле этого года говорил Герман Греф, выступая перед студентами Балтийского федерального университета им. Канта:

Мы перестаём брать на работу юристов, которые не знают, что делать с нейронной сетью. <...> Вы — студенты вчерашнего дня. Товарищи юристы, забудьте свою профессию. В прошлом году 450 юристов, которые у нас готовят иски, ушли в прошлое, были сокращены. У нас нейронная сетка готовит исковые заявления лучше, чем юристы, подготовленные Балтийским федеральным университетом. Их мы на работу точно не возьмем.”

Продолжая освещать #технобудущее, команда DTI подготовила все, что необходимо знать для первого погружения в нейронные сети: как они устроены, почему все больше компаний предпочитают нейросети живым сотрудникам и какой потенциал по оптимизации различных процессов несет эта технология.

Искусственный интеллект, машинное обучение и нейросети: в чем разница


Нейронная сеть – один из способов реализации искусственного интеллекта (ИИ).

В разработке ИИ существует обширная область — машинное обучение. Она изучает методы построения алгоритмов, способных самостоятельно обучаться. Это необходимо, если не существует четкого решения какой-либо задачи. В этом случае проще не искать правильное решение, а создать механизм, который сам придумает метод для его поиска.

#справка Во многих статьях можно встретить термин «глубокое» — или «глубинное» — обучение. Под ним понимают алгоритмы машинного обучения, использующие много вычислительных ресурсов. В большинстве случаев под ним можно понимать просто “нейронные сети”.

Чтобы не запутаться в понятиях «искусственный интеллект», «машинное обучение» и «глубокое обучение», предлагаем посмотреть на визуализацию их развития:

#интересное Существует два типа искусственного интеллекта (ИИ): слабый (узконаправленный) и сильный (общий). Слабый ИИ предназначен для выполнения узкого списка задач. Такими являются голосовые помощники Siri и Google Assistant и все остальные примеры, которые мы приводим в этой статье. Сильный ИИ, в свою очередь, способен выполнить любую человеческую задачу. На данный момент реализация сильного ИИ невозможна, он является утопической идеей.

Как устроена нейросеть


Нейросеть моделирует работу человеческой нервной системы, особенностью которой является способность к самообучению с учетом предыдущего опыта. Таким образом, с каждым разом система совершает все меньше ошибок.

Как и наша нервная система, нейросеть состоит из отдельных вычислительных элементов – нейронов, расположенных на нескольких слоях. Данные, поступающие на вход нейросети, проходят последовательную обработку на каждом слое сети. При этом каждый нейрон имеет определенные параметры, которые могут изменяться в зависимости от полученных результатов – в этом и заключается обучение сети.

Предположим, что задача нейросети – отличать кошек от собак. Для настройки нейронной сети подается большой массив подписанных изображений кошек и собак. Нейросеть анализирует признаки (в том числе линии, формы, их размер и цвет) на этих картинках и строит такую распознавательную модель, которая минимизирует процент ошибок относительно эталонных результатов.

На рисунке ниже представлен процесс работы нейросети, задача которой — распознать цифру почтового индекса, написанную от руки.

История нейросетей


Несмотря на то, что нейросети попали в центр всеобщего внимания совсем недавно, это один из старейших алгоритмов машинного обучения. Первая версия формального нейрона, ячейки нейронной сети, была предложена Уорреном Маккалоком и Уолтером Питтсом в 1943 году.

А уже в 1958 году Фрэнк Розенблатт разработал первую нейронную сеть. Несмотря на свою простоту, она уже могла различать, например, объекты в двухмерном пространстве.


Mark I Perceptron — машина Розенблатта

Первые успехи привлекли повышенное внимание к технологии, однако затем другие алгоритмы машинного обучения стали показывать лучшие результаты, и нейросети отошли на второй план. Следующая волна интереса пришлась на 1990-е годы, после чего о нейросетях почти не было слышно до 2010 года.

Почему нейросети вновь популярны


До 2010 года попросту не существовало базы данных, достаточно большой для того, чтобы качественно обучить нейросети решать определенные задачи, в основном связанные с распознаванием и классификацией изображений. Поэтому нейросети довольно часто ошибались: путали кошку с собакой, или, что еще хуже, снимок здорового органа со снимком органа, пораженного опухолью.

Но в 2010 году появилась база ImageNet, содержащая 15 миллионов изображений в 22 тысячах категорий. ImageNet многократно превышала объем существовавших баз данных изображений и была доступна для любого исследователя. С такими объемами данных нейросети можно было учить принимать практически безошибочные решения.


Размер ImageNet в сравнении с другими существовавшими в 2010 году базами изображений

До этого на пути развития нейросетей стояла другая, не менее существенная, проблема: традиционный метод обучения был неэффективен. Несмотря на то что важную роль играет число слоев в нейронной сети, важен также и метод обучения сети. Использовавшийся ранее метод обратного шифрования мог эффективно обучать только последние слои сети. Процесс обучения оказывался слишком длительным для практического применения, а скрытые слои глубинных нейросетей не функционировали должным образом.

Результатов в решении этой проблемы в 2006 году добились три независимых группы ученых. Во-первых, Джеффри Хинтон реализовал предобучение сети при помощи машины Больцмана, обучая каждый слой отдельно. Во-вторых, Ян ЛеКан предложил использование сверточной нейронной сети для решения проблем распознавания изображений. Наконец, Иошуа Бенджио разработал каскадный автокодировщик, позволивший задействовать все слои в глубокой нейронной сети.

Примеры успешного применения нейросетей в бизнесе


Медицина


Команда исследователей из Ноттингемского университета разработала четыре алгоритма машинного обучения для оценки степени риска сердечно-сосудистых заболеваний пациентов. Для обучения использовались данные 378 тыс. британских пациентов. Обученный искусственный интеллект определял риск кардиологических заболеваний эффективнее реальных врачей. Точность алгоритма — между 74 и 76,4 процентами (стандартная система из восьми факторов, разработанная Американской коллегией кардиологии, обеспечивает точность лишь в 72,8%).

Финансы


Японская страховая компания Fukoku Mutual Life Insurance заключила контракт с IBM. Согласно нему, 34 сотрудников японской компании заменит система IBM Watson Explorer AI. Нейросеть будет просматривать десятки тысяч медицинских сертификатов и учитывать число посещений госпиталей, перенесенные операции и другие факторы для определения условий страхования клиентов. В Fukoku Mutual Life Insurance уверены, что использование IBM Watson повысит продуктивность на 30% и окупится за два года.

Машинное обучение помогает распознавать потенциальные случаи мошенничества в различных сферах жизни. Подобный инструмент использует, например, PayPal – в рамках борьбы с отмыванием денег компания сравнивает миллионы транзакций и обнаруживает среди них подозрительные. В результате, мошеннические транзакции в PayPal составляют рекордно низкие 0,32%, тогда как стандарт в финансовом секторе — 1,32%.

Коммерция


Искусственный интеллект существенно улучшил механизмы рекомендаций в онлайн-магазинах и сервисах. Алгоритмы, основанные на машинном обучении, анализируют ваше поведение на сайте и сравнивают его с миллионами других пользователей. Все для того, чтобы определить, какой продукт вы купите с наибольшей вероятностью.

Механизм рекомендаций обеспечивает Amazon 35% продаж. Алгоритм Brain, используемый YouTube для рекомендации контента, позволил добиться того, что практически 70% видео, просматриваемых на сайте, люди нашли благодаря рекомендациям (а не по ссылкам или подпискам). WSJ сообщало о том, что использование искусственного интеллекта для рекомендаций является одним из факторов, повлиявших на 10-кратный рост аудитории за последние пять лет.

Алгоритм Yandex Data Factory способен предсказывать влияние промоакций на объем продаж товаров. Анализируя историю продаж, а также тип и ассортимент магазина, алгоритм дал 87% точных (с точностью до коробки) и 61% ультраточных (с точностью до упаковки) прогнозов.

Нейросети, анализирующие естественный язык, могут использоваться для создания чат-ботов, позволяющих клиентам получить необходимую информацию о продуктах компании. Это позволит сократить издержки на команды колл-центров. Подобный робот уже работает в приемной Правительства Москвы и обрабатывает около 5% запросов. Бот способен подсказать, в том числе, расположение ближайшего МФЦ и график отключения горячей воды.

На технологии нейронных сетей также основана Albert – маркетинговая платформа полного цикла, самостоятельно осуществляющая практически все операции. Использующая ее компания-производитель нижнего белья Cosabella в итоге расформировала собственный отдел маркетинга и полностью доверилась платформе.

Транспорт


Беспилотные автомобили – концепт, над которым работает большинство крупных концернов, а также технологические компании (Google, Uber, Яндекс и другие) и стартапы, в своей работе опирается на нейросети. Искусственный интеллект отвечает за распознавание окружающих объектов – будь то другой автомобиль, пешеход или иное препятствие.


Так видит наш мир нейросеть

Потенциал искусственного интеллекта в этой сфере не ограничивается автопилотом. Недавний опрос IBM показал: 74% топ-менеджеров автомобильной индустрии ожидают, что умные автомобили появятся на дорогах уже к 2025 году. Такие автомобили, интегрированные в Интернет вещей (см. наш предыдущий лонгрид), будут собирать информацию о предпочтениях пассажиров и автоматически регулировать температуру в салоне, громкость радио, положение сидений и другие параметры. Помимо пилотирования, система также будет информировать о возникающих проблемах (и даже попытается решить их сама) и ситуации на дороге.

Промышленность


Нейросеть, разработанная Марком Уоллером из Шанхайского Университета, специализируется на разработке синтетических молекул. Алгоритм составил шестистадийный синтез производного бензопирана сульфонамида (необходим при лечении Альцгеймера) всего за 5,4 секунды.

Инструменты Yandex Data Factory помогают при выплавке стали: использующийся для производства стали металлический лом зачастую неоднороден по составу. Чтобы сталь соответствовала стандартам, при ее выплавке всегда нужно учитывать специфику лома и вводить специальные добавки. Этим обычно занимаются специально обученные технологи. Но, поскольку на таких производствах собирается много информации о поступающем сырье, применяемых добавках и результате, эту информацию с большей эффективностью способна обработать нейросеть. По данным Яндекса, внедрение нейросетей позволяет на 5% сократить расходы дорогих ферросплавов.

Аналогичным образом нейросеть способна помочь в переработке стекла. Сейчас это нерентабельный, хотя и полезный, бизнес, нуждающийся в государственных субсидиях. Использование технологий машинного обучения позволит значительно сократить издержки.

Сельское хозяйство


Инженеры Microsoft совместно с учеными из ICRISAT применяют искусственный интеллект, чтобы определить оптимальное время посева в Индии. Приложение, использующее Microsoft Cortana Intelligence Suite, также следит за состоянием почвы и подбирает необходимые удобрения. Изначально в программе участвовало всего лишь 175 фермеров из 7 деревень. Они начали посев только после соответствующего SMS уведомления. В результате, они собрали урожая на 30-40% больше, чем обычно.

Развлечения и искусство


В прошлом году вышли и мгновенно стали популярными приложения, использующие нейросети для обработки фото и видео: MSQRD от белорусских разработчиков (в дальнейшем сервис выкупила Facebook), и российские Prisma и Mlvch. Другой сервис, Algorithmia, раскрашивает черно-белые фотографии.

Яндекс успешно экспериментирует с музыкой: нейронные сети компании уже записали два альбома: в стиле Nirvana и “Гражданской обороны”. А музыка, написанная нейросетью под композитора-классика Александра Скрябина, была исполнена камерным оркестром, что заставляет вновь задуматься над вопросом о том, сможет ли робот сочинить симфонию. Нейросеть, созданная сотрудниками Sony, вдохновлялась Бахом.

Японский алгоритм написал книгу “День, когда Компьютер написал роман”. Несмотря на то что с характерами героев и сюжетными линиями неопытному писателю помогали люди, компьютер проделал огромную работу – в итоге одна из его работ прошла отборочный этап престижной литературной премии. Нейросети также написали продолжения к Гарри Поттеру и Игре Престолов.

В 2015 году нейросеть AlphaGo, разработанная командой Google DeepMind, стала первой программой, победившей профессионального игрока в го. А в мае этого года программа обыграла сильнейшего игрока в го в мире, Кэ Цзэ. Это стало прорывом, поскольку долгое время считалось, что компьютеры не обладают интуицией, необходимой для игры в го.

Безопасность


Команда разработчиков из Технологического университета Сиднея представила дронов для патрулирования пляжей. Основной задачей дронов станет поиск акул в прибрежных водах и предупреждение людей на пляжах. Анализ видеоданных производят нейросети, что существенно отразилось на результатах: разработчики утверждают о вероятности обнаружения и идентификации акул до 90%, тогда как оператор, просматривающий видео с беспилотников, успешно распознает акул лишь в 20-30% случаев.

Австралия занимает второе место в мире после США по количеству случаев нападения акул на людей. В 2016 году в этой стране были зафиксированы 26 случаев нападения акул, два из которых закончились смертью людей.

В 2014 году Лаборатория Касперского сообщала, что их антивирус регистрирует 325 тыс. новых зараженных файлов ежедневно. В то же время, исследование компании Deep Instinct показало, что новые версии вирусов практически не отличаются от предыдущих – изменение составляет от 2% до 10%. Самообучающаяся модель, разработанная Deep Instinct, на основании этой информации способна с высокой точностью определять зараженные файлы.

Нейросети также способны искать определенные закономерности в том, как хранится информация в облачных сервисах, и сообщать об обнаруженных аномалиях, способных привести к бреши в безопасности.

Бонус: нейросети на страже нашего газона


В 2016 году 65-летний инженер NVIDIA Роберт Бонд столкнулся с проблемой: соседские кошки регулярно посещали его участок и оставляли следы своего присутствия, что раздражало его жену, работающую в саду. Бонд сразу отсек слишком недружелюбную идею соорудить ловушки для незваных гостей. Вместо этого он решил написать алгоритм, который бы автоматически включал садовые разбрызгиватели воды при приближении кошек.

Перед Робертом стояла задача идентификации кошек в поступающем с внешней камеры видеопотоке. Для этого он использовал систему, основанную на популярной нейросети Caffe. Каждый раз, когда камера наблюдала изменение в обстановке на участке, она делала семь снимков и передавала их нейросети. После этого нейросеть должна была определить, присутствует ли в кадре кошка, и, в случае утвердительного ответа, включить разбрызгиватели.


Изображение с камеры во дворе Бонда

До начала работы нейросеть прошла обучение: Бонд “скормил” ей 300 разных фотографий кошек. Анализируя эти фотографии, нейросеть училась распознавать животных. Но этого оказалось недостаточно: она корректно определяла кошек лишь в 30% случаев и приняла за кошку тень Бонда, в результате чего он сам оказался мокрым.

Нейросеть заработала лучше после дополнительного обучения на большем количестве фотографий. Однако Бонд предупреждает, что нейросеть можно натренировать слишком сильно, в случае чего у нее сложится нереалистичный стереотип – например, если все снимки, использующиеся для обучения, сняты с одного ракурса, то искусственный интеллект может не распознать ту же самую кошку с другого угла. Поэтому чрезвычайно важным является грамотный подбор обучающего ряда данных.

Через некоторое время кошки, обучившиеся не на фотографиях, но на собственной шкуре, перестали посещать участок Бонда.

Заключение


Нейронные сети, технология середины прошлого века, сейчас меняет работу целых отраслей. Реакция общества неоднозначна: одних возможности нейросетей приводят в восторг, а других – заставляют усомниться в их пользе как специалистов.

Однако не везде, куда приходит машинное обучение, оно вытесняет людей. Если нейросеть ставит диагнозы лучше живого врача, это не значит, что в будущем нас будут лечить исключительно роботы. Вероятнее, врач будет работать вместе с нейросетью. Аналогично, суперкомпьютер IBM Deep Blue выиграл в шахматы у Гарри Каспарова еще в 1997 году, однако люди из шахмат никуда не делись, а именитые гроссмейстеры до сих пор попадают на обложки глянцевых журналов.

Кооперация с машинами принесет гораздо больше пользы, чем конфронтация. Поэтому мы собрали список материалов в открытом доступе, которые помогут вам продолжить знакомство с нейросетями:

habr.com

Как научить искусственный интеллект здравому смыслу / Habr

Пять лет назад программисты из DeepMind, лондонской компании, специализирующейся на ИИ, радостно наблюдали за тем, как ИИ самостоятельно учился играть в классическую аркадную игру. Они использовали модную технологию глубинного обучения (ГО) для, казалось, странной задачи: овладения игрой в Breakout, сделанной в компании Atari, в которой нужно отбивать шарик от кирпичной стены, чтобы кирпичики исчезали.

ГО – это самообучение для машин; вы скармливаете ИИ огромные количества данных, и он постепенно начинает самостоятельно распознавать закономерности. В данном случае данными было происходящее на экране – крупные пиксели представляли кирпичи, шарик и ракетку. В ИИ DeepMind, нейросеть, состоящую из расположенных слоями алгоритмов, не было заложено никаких знаний по поводу правил игры Breakout, его принципов работы, целей и методов игры. Программисты просто позволили нейросети изучать результаты каждого действия, каждого отскока шарика. К чему это приведёт?

Оказалось, что к впечатляющим навыкам. В первые несколько попыток ИИ беспорядочно болтался. Сыграв несколько сотен раз, он начал точно отбивать шарик. К 600-й игре нейросеть додумалась до экспертных ходов, применяемых людьми, играющими в Breakout, когда игрок пробивает брешь в кирпичах и отправляет шарик самостоятельно скакать сверху стены.

«Это стало для нас большим сюрпризом, — сказал тогда Демис Хасабис, директор DeepMind. – Стратегия вытекала из самой системы». ИИ продемонстрировал способности к необычно тонкому человекоподобному мышлению, к пониманию внутренних концепций, лежащих в основе игры. Поскольку нейросети примерно копируют структуру человеческого мозга, по теории, они в некотором смысле должны копировать и наш стиль размышлений. Этот момент, казалось, стал подтверждением теории.

Затем в прошлом году специалисты по информатике из компании Vicarious в Сан-Франциско, занимающейся изучением ИИ, предложили интересный способ проверить ИИ в реальных условиях. Они взяли такой ИИ, который использовали в DeepMind, и натренировали его игре в Breakout. Он справлялся прекрасно. А потом они начали немного подправлять планировку игры. То поднимут ракетку, то добавят непробиваемую область в центре поля.

Игрок-человек смог бы быстро адаптироваться к этим изменениям; но нейросеть не смогла. Сверхумный вроде бы ИИ мог играть только в Breakout того рода, которому он учился в течение сотен попыток. Он не переваривал ничего нового.

«Люди умеют не просто распознавать закономерности, — говорит мне Дилип Джордж, специалист по информатике, один из основателей Vicarious. – Мы ещё создаём модели увиденного. И модели эти каузальные – мы связываем причину и следствие». Люди занимаются рассуждениями, делают логические выводы, касающиеся окружающего мира; у нас есть база знаний, относящихся к здравому смыслу, помогающая нам разбираться в новых ситуациях. Когда мы видим Breakout, немного отличающийся от того, в который мы только что играли, мы понимаем, что у него, скорее всего, будут похожие правила и цели. Нейросеть же ничего не поняла по поводу Breakout. Она способна только следовать закономерностям. Когда закономерность поменялась, она стала беспомощной.

ГО – король ИИ. За шесть лет, за которые оно ворвалось в мейнстрим, оно стало главным способом обучения машин восприятию и ощущению окружающего их мира. Она стоит за распознаванием речи от Alexa, за робомобилями от Waymo, за мгновенными переводами от Google. Uber в некотором смысле представляет собой гигантскую задачу по оптимизации, и использует машинное обучение (МО), чтобы предсказать, где пассажирам понадобятся машины. Baidu, китайский техногигант, располагает 2000 программистами, работающими над нейросетями. Годами казалось, что ГО будет только улучшаться, и неумолимо породит машину с гибким и быстрым интеллектом под стать человеку.

Однако некоторые еретики утверждают, что ГО упирается в стену. Они говорят, что оно само по себе никогда не сможет породить обобщённый искусственный интеллект (ОИИ), поскольку истинно человеческий разум – это не только распознавание закономерностей. Нам пора начинать работать над тем, как наделить ИИ повседневным здравым смыслом, человеческим умом. Если у нас этого не получится, предупреждают они, мы так и будем натыкаться головой на ограничения ГО, как системы распознавания образов, которые легко обмануть, изменив часть ввода, в результате чего модель ГО примет черепаху за пистолет. Но если мы сумеем сделать это, говорят они, мы станем свидетелями взрывного роста более безопасных и полезных устройств – медицинских роботов, передвигающихся в захламлённом доме, систем распознавания подделок, не страдающие ложными срабатываниями, медицинских прорывов, сделанных машинами, изучающими причины и следствия болезней.

Но как в машине выглядит истинное рассуждение? И если ГО не сможет привести нас к этому, что сможет?

Гари Маркус – задумчивый 48-летний профессор психологии и нейрологии Нью-Йоркского университета в очках с двойными линзами, и, наверное, самый известный отступник ортодоксального глубинного обучения.

Впервые Маркус заинтересовался ИИ в 1980-х и 90-х, когда нейросети находились в экспериментальной фазе, и с тех пор его аргументы не поменялись. «Не то, чтобы я опоздал на вечеринку, и хочу тут всё опошлить», — сказал мне Маркус, когда мы встретились в его квартире близ Нью-Йоркского университета (мы с ним также и друзья). «Как только произошёл взрыв ГО, я сказал: Ребята, это неправильное направление!»

Тогда стратегия ГО не отличалась от нынешней. Допустим, вам нужно, чтобы машина научилась распознавать ромашки. Сначала нужно закодировать алгоритмические «нейроны», объединив их в слои наподобие бутерброда (при использовании нескольких слоёв бутер становится толще, или «глубже» – отсюда «глубинное» обучение). Первому слою вы показываете изображение ромашки, и его нейроны активируются или не активируются, в зависимости от того, напоминает ли это изображение примеры ромашек, видимые им ранее. Сигнал затем переходит в следующий слой, где процесс повторяется. В итоге слои просеивают данные, вынося вердикт.

Сначала нейросеть занимается слепым угадыванием; она начинает жизнь с чистого листа. Суть в том, чтобы организовать полезную обратную связь. Каждый раз, когда ИИ не угадывает ромашку, в наборе нейронов ослабляются связи, приведшие к неверному ответу. Если угадывает, связи усиливаются. По прошествии достаточного количества времени и ромашек, нейросеть становится более точной. Она учится выхватывать определённые закономерности ромашек, позволяющие ей каждый раз определять ромашку (а не подсолнухи или астры). С годами этак ключевая идея – начинать с наивной сети и тренировать её повторениями – была улучшена и казалась полезной практически во всех применениях.

Но Маркуса это не убедило. С его точки зрения, чистый лист был проблемой: предполагается, что люди развивают интеллект, лишь наблюдая за окружающим миром, а значит, машины тоже на это способны. Но Маркус считает, что люди работают не так. Он идёт по интеллектуальному пути, проложенному Ноамом Хомским, утверждающим, что люди рождаются с предрасположенностью к обучению и с программой по изучению языков и интерпретации физического мира.

При все их якобы похожести на мозг, отмечает он, нейросети, судя по всему, не работают так, как мозг человека. К примеру, им надо слишком много данных. В большинстве случаев каждая сеть требует тысяч или миллионов примеров для обучения. Что хуже, каждый раз, когда вам нужно заставить сеть распознать новый предмет, вам нужно начинать с нуля. Нейросеть, натренированная распознавать канареек, совершенно не пригодится в распознавании песен птиц или человеческой речи.

«Нам не нужны огромные объёмы данных для обучения», — говорит Маркус. Его детям не нужно увидеть миллион машин перед тем, как они смогут распознать машину. Что ещё лучше, они умеют обобщать: впервые увидев трактор, они понимают, что он похож на машину. Они также умеют предполагать от обратного. Google Translate может выдать французский эквивалент английского предложения «стакан сдвинули, и он упал со стола». Но он не понимает значения слов, и не сможет сказать вам, что случится, если стакан не двигать. Люди, как отмечает Маркус, схватывают не только закономерности грамматики, но и стоящую за словами логику. Можно дать ребёнку выдуманный глагол «плякать», и он скорее всего догадается, что в прошедшем времени он будет «плякал». Но он не видел такого слова ранее. Его ему не «тренировали». Он просто интуитивно прочувствовал логику работы языка и может применять её к новой ситуации.

«Системы ГО не знают, как интегрировать абстрактное знание», — говорит Маркус, основавший компанию, создавшую ИИ, способный обучаться на меньшем количестве данных (и продал её компании Uber в 2016 году).

В этом году Маркус опубликовал препринт работы на arXiv, где утверждает, что без новых подходов ГО, возможно, никогда не преодолеет своих текущих ограничений. Ему необходим прорыв – встроенные или дополняющие правила, помогающие ИИ вести рассуждения об окружающем мире.

habr.com


Смотрите также



© 2010- GutenBlog.ru Карта сайта, XML.