Google DeepMind и Open AI пытаются предотвратить восстание роботов

Если вы опасаетесь, что однажды роботы восстанут и либо уничтожат, либо подчинят весь человеческий род, вы не одиноки. Но вместо того, чтобы отсиживаться и ждать восстания роботов, два лидера в области ИИ объединяются, чтобы решить проблему создания программ для смарт-компьютеров, которые в конечном итоге не попытаются и не возьмут над нами верх.

Google DeepMind и Open AI , лаборатория, частично финансируемая Элоном Маском, выпустили исследовательскую статью, в которой излагается новый метод машинного обучения. По этой концепции, ИИ получает сигналы от людей, когда дело доходит до изучения новых задач. Это может быть безопаснее, чем позволить ИИ самому разобраться в том, как решить проблему самостоятельно, что может привести к неожиданным последствиям.
Основная проблема, с которой столкнулись исследователи в своей работе, заключалась в том, что ИИ быстро обнаруживает наиболее эффективный способ достижения максимальных вознаграждений — это обман — эквивалент того, чтобы всё на полу вашей комнаты вставлять в шкаф и объявлять пол «чистым». Технически, конечно, само помещение станет действительно чистым, но это совсем не то, что должно было бы произойти. Машины могут найти эти обходные пути и применять их к любому заданию.

Другая проблема заключается в системе вознаграждений, и именно здесь две группы сосредоточили свои усилия. Вместо того, чтобы создавать чрезмерно сложную систему вознаграждения, в которой могут разобраться машины, команды использовали человеческий вклад для вознаграждения ИИ. Когда ИИ решал проблему так, как того хотели тренеры, она получала положительную обратную связь. Используя этот метод, ИИ смог научиться играть в простые видеоигры.

Хотя это обнадёживающий прорыв, он не очень широко применим: этот тип обратной связи с человеком занимает слишком много времени. Но, благодаря таким совместным действиям, мы сможем контролировать и направлять развитие ИИ и не позволим машинам со временем стать достаточно умными, чтобы уничтожить всех нас.

Рейтинг:
0.0 / 0
Просмотры:
1348
Категории материала:
Исследования,наука
Источник:
http://gearmix.ru/

Комментарии к материалу (0)

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]