Нейронные сети умнее человека?

06.05.2016

Компьютеры выходят на полосу обгона: самообучающиеся нейронные сети выводят искусственный интеллект на все более высокий уровень. Как долго сможет человек конкурировать с ними?

Серия статей CHIP: как искусственный интеллект (ИИ) бросает вызов миру
Человечество стоит на пороге великих перемен. Технологические концерны, военные и исследовательские лаборатории работают над созданием цифрового сверхинтеллекта, который с космической скоростью изменит все на свете: общество, жизнь и даже смерть человека. Что нас ждет впереди: идиллия или последние дни человечества? Пока что мы не решили, каким путем будем идти. В новой серии статей наш журнал расскажет о том, к чему может привести такая революция искусственного интеллекта, о его невероятных возможностях и подводных камнях.

• Часть 1. Создание сверхразума: что ждет человечество, когда появится искусственный интеллект?
• Часть 2. Формула вечной жизни будет открыта через 30 лет
• Часть 3. Нейронные сети умнее человека?
• Часть 4. Добро пожаловать в машину: опасен ли искусственный интеллект и как его остановить?

В 1981 году мюнхенский новобранец Юрген Шмидхубер делил помещение в армейской казарме с неким Руди Фёллером. В качестве бомбардира спортивного клуба «Мюнхен 1860» футболист стал кумиром мюнхенских болельщиков, и ему предстоял переход в бременский «Вердер».

Вокруг молодого игрока национальной сборной толпилось много солдат, и только Шмидхубер поначалу не имел понятия, кто спит на нижнем ярусе его кровати. Тем не менее, между ним и Фёллером царило взаимопонимание: «Он был очень приятным человеком. У меня не было машины, и он иногда подвозил меня на своем Renault Alpine».

Хотя Шмидхубер активно занимался спортом, гораздо больше его интересовала научная фантастика. С самых юных лет он был увлечен вопросами искусственного интеллекта. Шмидхубер последовательно изучал информатику и математику в Мюнхенском техническом университете и в 30 лет был назначен на должность доцента.

В 1995 году он стал одним из директоров Швейцарского института по исследованию искусственного интеллекта IDSIA (Лугано), где он вместе со своими студентами учит машины мыслить. 53-летний ученый отличается скромностью. На лекциях он охотно рассказывает о том, как уже в 15 лет хотел создать робота, который был бы умнее него самого. «Мои коллеги говорят, что это должно быть достаточно просто».

Юрген Шмидхубер: 53-летний программист из Германии относится к ведущим мировым исследователям искусственного интеллекта.

Но все оказывается не таким простым. С одной стороны, потому что Шмидхубер — научный гений с запредельной творческой активностью. С другой стороны, потому что создание мыслящих машин затягивается, несмотря на устремления пытливого ума. Тем не менее, достигнуты немалые успехи, и существенный вклад в это внесен лабораторией, находящейся в кантоне Тичино.

Разрабатываемые там рекуррентные нейронные сети (с обратной связью) завоевывают все больше сфер человеческого интеллекта, например, распознавание речи и почерка или анализ изображений и видео с применением в медицине, смартфонах, самодвижущихся автомобилях и многих других областях.

Нейронные сети учатся как дети

Для Шмидхубера это только начало: «Для освоения языков достаточно контролируемого обучения. Нашей рекуррентной нейронной сети предоставляются обучающие примеры — например, переводы из Европарламента, и показываются требуемые результаты. Затем рекуррентная нейронная сеть выясняет, как это происходит.

Еще десять лет назад это относилось к сфере научной фантастики. Но всего этого по-прежнему недостаточно для создания универсального средства решения задач, которое подобно ребенку или даже нашим роботам без участия учителя, методом проб и ошибок, само найдет последовательность действий, которая ведет к успеху».

IDSIA внес большой вклад в этот самый универсальный способ обучения. Ползающий ребенок, наткнувшийся на ножку стола, быстро поймет, что в будущем ему нужно избегать болезненных столкновений. «Наиболее общая цель ребенка состоит в том, чтобы всю жизнь держать в зеленой зоне сенсоры боли и голода». У робота, по словам Шмидхубера, боль можно выразить отрицательными числовыми значениями, а вознаграждения — положительными.

Как приложение Google для распознавания речи, так и Siri компании Apple относятся к сферам применения искусственного интеллекта, делающим ставку на LSTM.

Человек учится десятилетиями и развивается до уровня сложного существа с множеством способностей. А как учатся машины? «Наши системы имеют сходную структуру, — говорит Шмидхубер. — Мы не пытаемся детально воссоздать мозг, а размышляем над тем, что нужно для оптимального универсального средства решения задач. И по аналогии с синапсами в головном мозге наша смоделированная нейронная сеть усиливает прочность связей таким образом, чтобы получить осмысленные результаты».

Хорошо функционирующие глубокие нейронные сети существуют уже давно, но только сейчас они переживают свой расцвет. Шмидхубер говорит следующее: «Это в первую очередь объясняется повышением вычислительной мощности. При одной и той же стоимости она каждые десять лет совершенствуется с коэффициентом 100».

Кремниевой долине от Баварии

Для того, чтобы сети могли вспоминать прошлые вводы данных, им требуется некий вид краткосрочной памяти в форме обратных связей. Но поначалу это работало на довольно среднем уровне: воспоминание рекуррентной нейронной сети просто не удерживалось достаточно долго. В 1991 году лучший из студентов Шмидхубера Сепп Хохрайтер проанализировал данную проблему в Мюнхенском техническом университете.

В 1995 году оба баварца опубликовали решение под названием Long Short-Term Memory (LSTM). Эта «долгая краткосрочная память» в отличие от старой рекуррентной нейронной сети вспоминает не только несколько, но и тысячи, миллионы и более шагов. До конца нулевых годов исследователи искусственного интеллекта IDSIA усовершенствовали LSTM. Сегодня Alphabet, Baidu и другие IT-концерны делают ставку на LSTM, созданную в Баварии и Швейцарии.

Сепп Хохрайтер: совместно с Юргеном Шмидхубером в 90-е годы он разработал LSTM — «долгую краткосрочную память» для нейронных сетей. Сегодня Хохрайтер работает на должности профессора в Линце

Не только идеи, но и бывшие студенты IDSIA имеют вес в Кремниевой долине. Соучредитель и первый сотрудник DeepMind, а также другие ее служащие — это выходцы из «кузницы кадров» Шмидхубера.

Фирма считается высококлассной компанией, занимающейся вопросами искусственного интеллекта. Ее передовые бойцы — это звезды инди-рока в мире цифровых технологий. С момента присоединения к Alphabet два года назад бывший стартап именуется Google DeepMind.

Один из основателей компании Демис Хассабис талантливо играет в шахматы. В 13 лет он занимал второе место в мировом рейтинге Эло в своей возрастной категории.
Но как руководитель фирмы, занимающейся искусственным интеллектом, теперь уже 39-летний специалист по нейробиологии ведет главную партию в настольных играх не в шахматах, а в го. Классическая азиатская игра весьма проста.

Есть четыре основных правила и несколько вариаций отдельных деталей — собственно, больше знать и не надо. В теории игры го относится к конечным играм с нулевой суммой с полной информацией. Это означает, что случайность не может загубить стратегию игрока, лучший выигрывает методично, и успех одного становится провалом для другого.

Однако кажущаяся простой игра в го является и самой сложной в мире. Естественно, что 19 на 19 пересекающихся линий на игровом поле открывают большие возможности, чем, например, шахматная доска с полем 8 на 8. На партию предлагается в среднем по 200 вариантов ходов. Фигура может стать решающей после сотни ходов.

Го: следующий большой успех искусственного интеллекта

Как и в игре в шахматы ни один человек не может рассчитать вперед все комбинации ходов, то же касается и машин: количество соответствующих правилам позиций составляет более чем 2 на 10 в 170 степени. И это немало. Число атомов во всей Вселенной оценивается как 10 в 80 степени.

Можно было бы заменить каждый отдельный атом во всей Вселенной новой вселенной с количеством атомов, составляющим 10 в 80 степени, и все равно их число не достигло бы количества разрешенных позиций в го. Кстати, число соответствующих правилам комбинаций ходов составляет около 10 в 360 степени.

«AlphaGo ведет игру, как очень сильный человек»
Фань Хуэй, профессиональный игрок в го, после своего поражения в игре против искусственного интеллекта AlphaGo.

Хороший стратег в го не может полагаться только на комбинационные и математические способности. Ему нужна интуиция, опыт, проницательность, креативность, а также хладнокровие при работе над ошибками. В этом отношении го представляет собой бастион человеческого интеллекта, требующий большего, чем просто применение всех или очень многих теоретических возможностей.

До сих пор настольная игра го считалась недоступной для искусственного интеллекта. Полной неожиданностью было заявление DeepMind о победе ее программы AlphaGo над профессионалом Фанем Хуэем. Теперь AlphaGo побеждает лучшего в мире игрока — Ли Седоля.

То есть, чтобы по-настоящему овладеть игрой, искусственный интеллект должен идти другим путем. И компания DeepMind его нашла. Со своей программой AlphaGo дочерняя компания Google, занимающаяся искусственным интеллектом, пять раз обыграла троекратного чемпиона Европы по игре в го Фаня Хуэя в пяти играх. Была еще вторая неофициальная серия с более коротким временем на размышление; в этой серии из пяти игр победила AlphaGo со счетом 3:2.

В некотором отношении этот триумф имеет большее значение, чем победа суперкомпьютера Deep Blue над чемпионом мира по шахматам Гарри Каспаровым двадцать лет назад, что объяснялось, прежде всего, чистой вычислительной мощностью и обширными игровыми библиотеками. Лучше сравнить AlphaGo с TDgammon — нейронной сетью, которая еще в 1994 году без учителя научилась играть в нарды на уровне мирового чемпиона среди людей.

AlphaGo играет сама с собой

В AlphaGo DeepMind комбинирует две нейронные сети с так называемым методом Монте-Карло. При этом, исходя из соответствующей позиции на доске, моделируются возможные последующие ходы на основе случайных ходов, и выбирается наиболее многообещающий ход.

Этот вид поиска по дереву не новый, традиционные программы для игры в го таким образом достигли уровня амбициозных любителей. Но чтобы конкурировать с профи, требуется ограничение разветвления поиска по дереву посредством оптимизации. И здесь в игру вступают нейронные сети. Первая «стратегическая сеть» (Policy Network) концентрирует поиск на ходах, которые действительно представляются успешными. Затем «оценочная сеть» (Value Network) оценивает актуальное положение в каждой фазе моделирования, чтобы ограничить глубину поиска.

Нейронные сети требуют тренировки с помощью данных. Разработчики снабдили «стратегическую сеть» всего 30 миллионами ходов из банка данных по реальным профессиональным играм. И уже с этим багажом AlphaGo в предсказании следующего хода соперника достигла отличного коэффициента попаданий в 57 процентов.
«Однако наша цель состоит не в имитации лучших игроков, а в победе над ними», — поясняют создатели программы в DeepMind.

В своей наиболее сильной на данный момент конфигурации AlphaGo набрала 3586 баллов в рейтинге Эло, обогнав тем самым бывшего чемпиона мира Ли Седоля, у которого теперь 3520 баллов

Поэтому AlphaGo должна была самостоятельно освоить новые стратегии, сыграв, как когда-то TDgammon, тысячи партий с самой собой и получая поддержку посредством вознаграждений за победы. Такое стимулированное обучение (Reinforcement Learning) усовершенствовало «стратегическую сеть» настолько, что она стала побеждать другие программы для игры в го, которые делали ставки на огромные древа поиска.

Затем «стратегическая сеть» через стимулирующее обучение усовершенствовала и «оценочную сеть», приведя ее в состояние, при котором она может прогнозировать исход игры при любой позиции.

Хассабис, один из основателей DeepMind, полагает, что AlphaGo — это еще один шаг к человеческому мышлению. Следующий шаг AlphaGo сделала в период с 9-го по 15-е марта, обыграв со счетом 4:1 Ли Седоля, лучшего в мире игрока в го в недалеком прошлом. Чемпион был настроен оптимистично и рассчитывал на победу над машиной Google. За победу над AlphaGo Google обещала 1 млн долларов, но поскольку чемпион проиграл, деньги были направлены на благотворительность.

Простота игры в го привлекает и Юргена Шмидхубера, который еще в 2010 году вместе со своими студентами публиковал статьи на тему го. Представляется, что его научная работа вдохновляется идеей о вечном упрощении, о постоянном сжатии сложной информации в короткие и элегантные описания.

Меньше ресурсов, больше познаний

Профессор искусственного интеллекта разъясняет это на примере неконтролируемого обучения, при котором нейронная сеть в отличие от контролируемого или стимулируемого обучения должна производить процесс распознавания без инструкций в виде образцов во вводных данных: «Посмотрите видео с сотней падающих яблок. При этом быстро накапливается несколько гигабайт исходных данных. Но систематичности не будет: я могу предсказать, как они упадут, если я смыслю в гравитации».

Станислав Улам: американец, скончавшийся в 1984 году, пионер моделирования по методу Монте-Карло, в 1958 году впервые упомянул понятие технологической сингулярности.

Дети схватывают это быстро. Нейронные сети обучаются подобным образом, говорит Юрген Шмидхубер: «Вы видите последовательность кадров и пытаетесь угадать, что будет дальше. Вы увидели десять картинок, что будет на одиннадцатой?

В объеме, в котором сеть может сделать вывод на основании прошлого, она может предсказать, какие значения в пикселях можно будет увидеть. То есть она должна еще учитывать отклонения от своего предсказания и поэтому может невероятно сильно сжать это видео».

Неконтролируемое обучение служит, в первую очередь, для того, чтобы представлять данные более компактно. Это получается только тогда, когда имеются последовательности, например, симметрии, повторения или, как в случае с яблоками, распознаваемая гравитация.

Такое сжатие данных может быть присоединено к контролируемому или стимулируемому обучению, так как оба вида могут использовать неконтролируемую предикативную модель мира для наилучшего разрешения проблем.

Для Шмидхубера вся история науки — это, прежде всего, история сжатия данных. «Открытие новых правил в области данных всегда означает следующее: потом ты сможешь сжать лучше, чем до этого». Кеплер наблюдал движение планет и вывел таким образом закон эллипсов, который описал наблюдения коротко и элегантно. Ньютон в 1686 году заявил о том, что сила тяжести определяет не только случай с яблоками, но и орбиту планет — и это еще больше увеличило сжимаемость данных.

Примерно через 200 лет Эйнштейну удалось еще лучше сжать данные посредством своей общей теории относительности, которая компактно моделирует и ошибки, оставшиеся в прогнозах Ньютона. Шмидхубер говорит: «Каждый раз, когда мои наблюдения отклоняются от прогнозов, это стоит мне места в памяти.

Мое представление о мире, полученное в результате неконтролируемого обучения, было бы самым красивым и элегантным, если бы оно соответствовало еще неизвестной формуле мира — самому короткому алгоритму, который рассчитывает и тем самым объясняет всю Вселенную».

Сжатие данных означает прогресс

Если рекуррентная нейронная сеть распознает образец, возникает понимание, глубину которого можно измерить: «Я могу сравнить, сколько ресурсов требовалось до и после понимания. Если сети вместо пяти миллионов синапсов требуется только 4,95 миллионов, то это измеримый прогресс».

Этот прогресс находит отражение в формальной теории удовольствия и любопытства Шмидхубера как максимизирующий квантифицированный сигнал удовольствия, а также внутренняя мотивация человека или машины к дальнейшим исследованиям.

«В итоге формула интеллекта окажется совсем простой»
Юрген Шмидхубер, профессор, специалист по искусственному интеллекту

Благодаря постоянному ускорению аппаратного обеспечения в обучающихся сетях вскоре «вспыхнут» миллиарды синапсов. Результаты становятся все более впечатляющими, однако алгоритмы для синапсов остаются относительно простыми. «Как и у людей, алгоритм обучения достаточно короткий, поскольку сетевая архитектура ДНК включает в себя не так уж и много: около четырех миллиардов бит, однако большинство вовсе не задействуется для процесса мышления. Неокортекс как оплот интеллекта в любом случае нуждается в нескольких миллионах бит».

Код, который машина создает для сверхчеловеческого универсального средства решения задач, по оценке Шмидхубера, намного короче, чем думает большинство.

Идеальная формула интеллекта

В итоге формула интеллекта окажется настолько простой, что ее поймет любой человек средних способностей, и уважение перед интеллектом будет утрачено. «Если кому-то первому, нам или кому-то еще, удастся сжать основополагающие принципы интеллекта, оглядываясь назад, мы спросим себя, почему потребовалось так много времени, чтобы это понять». Потом не только специалисты будут экспериментировать с более или менее целевыми функциями для своих роботов: «Основательно изменится весь мир».

Галлюцинирующие сети: картинки обретают психоделическую притягательность, когда нейронные сети получают задание на более сильную интерпретацию определенных признаков. Google называет такое развлечение исследователей «инцепционизмом».

Такая разработка могла бы привести к созданию самообучающихся машин, позволяющих очень быстро совершенствовать их архитектуру и окружение и превзойти человеческий интеллект. Математик Станислав Улам в 1958 году первым ввел понятие технологической сингулярности: прогресс, ускоренный в геометрической прогрессии сойдется в конечном времени — по всей видимости, в скором будущем.

Писатель-фантаст Вернор Виндж в восьмидесятые годы донес это понятие до широкой публики. А уже в первой половине ХХ века теолог Пьер Тейяр де Шарден говорил о «точке Омега». Ученый-иезуит видел в максимальной сложности божественное завершение космической истории. Сюда подходит едкое замечания Рея Курцвейла. На вопрос о том, существует ли Бог, пророк сингулярности ответил лаконично: «Пока нет».

Юрген Шмидхубер старается не слишком много гадать о том, что ждет человечество в будущем: «Но кажется ясным, что мы дошли до решающей точки. Несколько тысячелетий цивилизации промелькнули в мировой истории словно молния, и сейчас все должно разрешиться».

С хладнокровием исследователя искусственного интеллекта, который давно договорился с будущим, отец двух дочерей предсказывает драматические события, кульминация которых, по его мнению, а также по мнению Курцвейла и многих других, придется примерно на середину 21-го столетия: «Еще несколько десятилетий, и у нас будут дешевые компьютеры, которые смогут производить больше вычислений, чем мозг всего человечества вместе взятого. Это затронет и изменит каждый отдельный аспект цивилизации. Мы берем курс на конечный пункт в истории доминирования человека».

В «ближайшие» годы Юрген Шмидхубер и его команда хотят создать искусственный интеллект, примерно соответствующий интеллекту обезьянки-капуцина. Эволюции на это понадобилось около трех миллиардов лет. На человека ей потом хватило менее десятка миллионов лет — то есть примерно в сто раз меньше.

Шмидхубер предлагает простое решение: «Кто имеет под своим контролем способности обезьянки, может рассчитывать на то, что следующий шаг уже не потребует так много усилий».

Серия статей CHIP: как искусственный интеллект (ИИ) бросает вызов миру
Человечество стоит на пороге великих перемен. Технологические концерны, военные и исследовательские лаборатории работают над созданием цифрового сверхинтеллекта, который с космической скоростью изменит все на свете: общество, жизнь и даже смерть человека. Что нас ждет впереди: идиллия или последние дни человечества? Пока что мы не решили, каким путем будем идти. В новой серии статей наш журнал расскажет о том, к чему может привести такая революция искусственного интеллекта, о его невероятных возможностях и подводных камнях.

• Часть 1. Создание сверхразума: что ждет человечество, когда появится искусственный интеллект?
• Часть 2. Формула вечной жизни будет открыта через 30 лет
• Часть 3. Нейронные сети умнее человека?
• Часть 4. Добро пожаловать в машину: опасен ли искусственный интеллект и как его остановить?