На прошлой неделе многих поразила новость о размерах финансовых потерь крупнейшего в мире исследовательского центра по ИИ – принадлежащей Alphabet компании DeepMind. За три года компания уже потеряла более $1млрд, а долг в размере более $1млрд должен быть погашен в течение следующих 12 месяцев.
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?
Эти вопросы анализирует Гэри Маркус - основатель и генеральный директор Robust.AI и профессор психологии и нейронологии в Нью-Йоркском университете, – в своей статье «Deepmind's losses and the future of AI».
Вот суть его позиции.
1) Затраты далеко не беспрецедентные по сравнению с суммами, потраченными на некоторые из крупнейших научных проектов. Для сравнения, затраты на Большой адронный коллайдер тоже составляют около $1млрд в год, а общая стоимость открытия бозона Хиггса оценивается более чем в $10 млрд.
Так что проблема не в сумме затрат, а в том, на что они идут.
2) А идут они, в основном на одно. Все яйца складываются в одну корзину – глубокое обучение с подкреплением (deep reinforcement learning). Реальная проблема с этой корзиной - это доверие. На данный момент глубокому обучению с подкреплением можно доверять только в задачах, которые хорошо контролируются и не несут больших сюрпризов; например, это хорошо работает для Go - ни доска, ни правила не изменились за 2000 лет - но вы не захотите полагаться на этот метод во многих реальных ситуациях.
3) В сложных областях практической жизни глубокое обучение с подкреплением довольно быстро заходит в тупик. IBM первая наступила на эти грабли, когда попыталась использовать Watson, выигравший у людей в интеллектуальной игре Jeopardy!, в медицинской диагностике. Успех оказался весьма невелик. Watson работал хорошо в некоторых случаях и терпел неудачу в других, временами ошибаясь в тривиальных диагнозах, типа сердечных приступов, которые были бы очевидны для студентов-первокурсников.
4) Отрицательная экономика DeepMind, к сожалению, может повлиять на ИИ в целом. Если ажиотаж еще год-другой не принесет достойных практических результатов, это может привести к «зиме ИИ», когда даже сторонники не хотят вкладывать сюда все новые инвестиции.
5) Проблема гораздо шире, чем потери DeepMind. Многие достижения, обещанные к практическому внедрению уже несколько лет назад, такие как самоуправляемые автомобили или чат-боты, способные понимать разговоры, еще не осуществились. Обещание Марка Цукерберга в апреле 2018 года Конгрессу о том, что ИИ скоро решит проблему с фейковыми новостями, уже откатывается назад.
6) Так что же делать? Ответ очевиден – раскладывать яйца по разным корзинам. На каждый доллар, вложенный в глубокое обучение с подкреплением, как минимум, доллар (а лучше 2 или 3) нужно вкладывать в перспективные альтернативные направления.
Например, решение задачи понимания того, как дети овладевают языком и узнают мир, используя минимум энергии и данных, - не менее ценно и перспективно, чем все, что делает DeepMind.
Да что DeepMind. Ведь и все остальные киты направления ИИ пока что по-прежнему складывают яйца в одну корзину.
Ох как это глупо и недальновидно!
#ИИ
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?
Эти вопросы анализирует Гэри Маркус - основатель и генеральный директор Robust.AI и профессор психологии и нейронологии в Нью-Йоркском университете, – в своей статье «Deepmind's losses and the future of AI».
Вот суть его позиции.
1) Затраты далеко не беспрецедентные по сравнению с суммами, потраченными на некоторые из крупнейших научных проектов. Для сравнения, затраты на Большой адронный коллайдер тоже составляют около $1млрд в год, а общая стоимость открытия бозона Хиггса оценивается более чем в $10 млрд.
Так что проблема не в сумме затрат, а в том, на что они идут.
2) А идут они, в основном на одно. Все яйца складываются в одну корзину – глубокое обучение с подкреплением (deep reinforcement learning). Реальная проблема с этой корзиной - это доверие. На данный момент глубокому обучению с подкреплением можно доверять только в задачах, которые хорошо контролируются и не несут больших сюрпризов; например, это хорошо работает для Go - ни доска, ни правила не изменились за 2000 лет - но вы не захотите полагаться на этот метод во многих реальных ситуациях.
3) В сложных областях практической жизни глубокое обучение с подкреплением довольно быстро заходит в тупик. IBM первая наступила на эти грабли, когда попыталась использовать Watson, выигравший у людей в интеллектуальной игре Jeopardy!, в медицинской диагностике. Успех оказался весьма невелик. Watson работал хорошо в некоторых случаях и терпел неудачу в других, временами ошибаясь в тривиальных диагнозах, типа сердечных приступов, которые были бы очевидны для студентов-первокурсников.
4) Отрицательная экономика DeepMind, к сожалению, может повлиять на ИИ в целом. Если ажиотаж еще год-другой не принесет достойных практических результатов, это может привести к «зиме ИИ», когда даже сторонники не хотят вкладывать сюда все новые инвестиции.
5) Проблема гораздо шире, чем потери DeepMind. Многие достижения, обещанные к практическому внедрению уже несколько лет назад, такие как самоуправляемые автомобили или чат-боты, способные понимать разговоры, еще не осуществились. Обещание Марка Цукерберга в апреле 2018 года Конгрессу о том, что ИИ скоро решит проблему с фейковыми новостями, уже откатывается назад.
6) Так что же делать? Ответ очевиден – раскладывать яйца по разным корзинам. На каждый доллар, вложенный в глубокое обучение с подкреплением, как минимум, доллар (а лучше 2 или 3) нужно вкладывать в перспективные альтернативные направления.
Например, решение задачи понимания того, как дети овладевают языком и узнают мир, используя минимум энергии и данных, - не менее ценно и перспективно, чем все, что делает DeepMind.
Да что DeepMind. Ведь и все остальные киты направления ИИ пока что по-прежнему складывают яйца в одну корзину.
Ох как это глупо и недальновидно!
#ИИ