Хокинг назвал искусственный интеллект величайшей ошибкой человечества

Хокинг назвал искусственный интеллект величайшей ошибкой человечества
Британский физик Стивен Хокинг, в своей статье, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.

Соавторами данной работы являются профессор компьютерных наук из Калифорнийского университета Стюарт Расселл и профессоры физики Макс Тегмарк и Фрэнк Вильчек из Массачусетского технологического института. В статье указывается на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

Как сказал Хокинг газете Independent:
Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.

Ученые говорят, что в будущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться и ни что не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие.
В статье отмечается, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию. Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия для людей может повлечь создание искусственного интеллекта. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего. По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.

Источник: Источник

Комментарии

Spectre  ◊ 8 мая 2014 г. в 19:03
Терминатора насмотрелся...
0
khodotdn  ◊ 8 мая 2014 г. в 20:01
"По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего."

Сломать ноут и компьютер, выбросить мобильник
0
Shurepa  ◊ 8 мая 2014 г. в 20:34
Надо прислушаться к его словам!
Наиумнейший человек,я бы сказал гений.
У него IQ порядка 160-170
0
ritumka  ◊ 8 мая 2014 г. в 20:57
Лучше бы искусственных женщин усовершенствовали
0
Shurepa  ◊ 8 мая 2014 г. в 20:58
magic,
ritumka,
+100
0
Zarkingin  ◊ 8 мая 2014 г. в 22:31
Чёт, он какой-то потасканный
Хах. Ладно, грешно, грешно
0
freedom_wanderer  ◊ 8 мая 2014 г. в 22:54
Меня больше волнует вытеснение людей с заводов, рабочих мест, автоматизация. Представьте, в будущем нищета, во всех компаниях и корпорациях автоматизация производства.. А что делать тогда человеку?
0

Для того чтобы оставить комментарий, вам необходимо войти на сайт