Илон Маск объяснил, почему искусственный интеллект – угроза для человечества уже в ближайшие 5 лет

Фото: wikimedia.org
Ранее Маск заявлял, что человек станет домашним питомцем для машин.

Разработчик алгоритмов, победивших человека в го, шашки, сеги и Starcraft II, выращивает, по мнению главы Tesla и SpaceX, опасную для человечества технологию, способную дестабилизировать ситуацию во всем мире. Это произойдет уже через пять лет, но мы можем этого даже не заметить, пишет hightech.plus.

По мнению Маска, многие умные люди — в силу своего высокомерия — не признают возможности того, что ИИ сможет когда-либо превзойти их.

"Насколько я вижу, больше всего ошибаются насчет ИИ очень умные люди, потому что они не могут представить себе, что компьютер сможет стать намного умнее их. В этом недостаток их логики. Они попросту намного глупее, чем думают", — написал он в Твиттере.

Маск бьет тревогу уже давно. В 2016 он предупреждал, что человек может стать домашним питомцем для машин, захвативших власть. И с тех пор регулярно призывает к регулированию технологии ИИ.

Среди всех разработчиков ИИ больше всего Маска беспокоит DeepMind, подразделение Google.

"Сама природа всех ИИ, которые они создают, в том, чтобы побеждать человека во всех играх. Это не значит, что через пять лет все отправится в ад. Только то, что ситуация станет нестабильной и странной".

По мнению Маска, это слишком напоминает сюжет "Военных игр" - в этом фильме времен холодной войны хакер-подросток подключается к правительственному суперкомпьютеру, которым управляет ИИ и который обучается на симуляторах военных действий. В ходе игры ИИ убеждает власти, что ядерная атака со стороны СССР неизбежна.

Пётр Йодченко
Для публикации комментариев нужно авторизоваться!
Через социальные сети
Через почту
Вы
укр
рус
© 2018 «Йод.Медia». Все права защищеныРазработано Wander Black
Мы собираем и используем cookie для того, чтобы формировать достоверную статистику и делать контент интересным для каждого из наших читателей. Что такое cookie-файлы, как их включить / выключить, вы можете прочитать здесь.Редакция уважает авторское право, поэтому, если хотите перепечатать любой наш материал, напишите нам.
Поиск
Войти
Через социальные сети
Через почту