Искусственный интеллект будущего будет похож на биологическую систему, подобную человеку
Несмотря на заметный прогресс нейронных сетей, до появления сильного искусственного интеллекта еще далеко, считают известные специалисты в области ИИ Демиса Хассабис и Джеффри Хинтон. Ученые рассказали изданию VentureBeat о современных проблемах ИИ и методах их решения.
Диагностика раковых опухолей; увеличение шансов на успешное ЭКО; победа над людьми в шахматы и видеоигры; управление автомобилем вместо человека — вот лишь несколько примеров достижений искусственного интеллекта за уходящий год. Если эти темпы развития останутся прежними, в следующие 12 лет ИИ привлечет в мировую экономику $13 трлн, считают аналитики McKinsey.
Некоторые из наиболее впечатляющих шагов ИИ совершил благодаря глубоким нейронным сетям (DNN), разновидности архитектуры машинного обучения, основанной на представлениях данных. Однако, по мнению Демиса Хассабиса, сооснователя DeepMind, DNN не станет предвестником сильного искусственного интеллекта, действительно способного решать проблемы, доступные пока только человеку.
«Работы впереди еще много, — заявил он на конференции NeurlPS 2018 в Монреале. — Видео- или настольные игры — довольно простая задача в определенном смысле, потому что модель перехода между состояниями очень хорошо определенная и простая для обучения. Реальная трехмерная среда и сам реальный мир гораздо сложнее просчитать, но это важно сделать, если вы хотите получить прогноз».
Несмотря на все достижения DeepMind, Хассабис не считает, что до сильного ИИ рукой подать.
В отличие от современных алгоритмов, люди обладают присущим им знанием о мире, позволяющим строить прогнозы и планировать действия. Машинам, побеждающим людей в шахматы или го, пока до нас далеко, потому что они еще не научились переносить знания с одной области на другую.
Джеффри Хинтон, которого называют одним из отцов технологии глубокого обучения, лежащей в основе искусственного интеллекта, рассказал в интервью VentureBeat, что годы исследований убедили его — решение проблемы расширяемости обучения с подкреплением заключается в усилении сигнала при помощи иерархической архитектуры.
Если сравнить ИИ с крупной компанией, то обучение с подкреплением будет задачей, поставленной директором перед сотрудниками — повысить доходность. Но такой сигнал поступает к ним не слишком часто, поэтому лучше, если директор назначит себе заместителей, которые будут распределять более мелкие цели, выполнение которых также будет вознаграждаться.
И Хинтон, и Хассабис считают, что ИИ-алгоритмы будущего будут больше похожи на биологические системы. И видят потенциал в неконтролируемом обучении — области машинного обучения, которая получает информацию из немаркированных и неклассифицированных данных.
«Мы в DeepMind разрабатываем нечто вроде нейробиологической стратегии с когнитивными способностями, которые, как мы считаем, необходимы для создания полностью функционального ИИ уровня человека, — говорит Хассабис, — способного передавать опыт, концептуальные знания, может, способного к какому-то творчеству, прогнозированию будущего, умеющего пользоваться языком и символическим мышлением. Все эти вещи у людей получаются без особого труда».
Что касается темы предвзятости ИИ, то Хинтон не считает ее такой уж серьезной проблемой — надо только следить за данными, которые «потребляет» машина. С людьми провернуть этот фокус не получится — нельзя просто взять и изменить их настройки.
Источник: hightech.plus
Еще никто не комментировал данный материал.
Написать комментарий