Вы зашли на мобильную версию сайта
Перейти на версию для ПК

Стивен Хокинг предсказал гибель человечества от искусственного интеллекта

Парализованный ученый призвал с опаской относиться к новейшим технологиям
Парализованный ученый призвал с опаской относиться к новейшим технологиям Фото:

Развитие искусственного интеллекта может привести к гибели человечества. Об этом заявил британский ученый Стивен Хокинг в рамках Глобальной конференции мобильного Интернета в Пекине.

По словам ученого, искусственный интеллект не только может стать позитивным фактором для человечества, но и способен погубить его, поэтому люди должны осознавать опасность, которую он таит. Опасность эта выражается в том, что новейшие технологии могут привести к деградации человека, сделать его совершенно беспомощным перед лицом природы. А в условиях естественной эволюции и борьбы за выживание это означает верную гибель, передает ТАСС слова ученого.

Тем не менее Хокинг отметил, что искусственный интеллект способен решить большинство проблем в мире — при умелом подходе.

Глобальная конференция мобильного Интернета проходит в Пекине с 27 апреля по 1 мая. В ней примет участие более 500 представителей крупных компаний со всего мира и 100 тысяч посетителей.

Стивен Хокинг — физик-теоретик и ученый с мировым именем. Почти полный паралич вследствие тяжелой болезни и неспособность говорить после перенесенной на гортани операции не остановили его научную деятельность. Хокинг общается с коллегами при помощи синтезатора речи, разработанного инженерами Кембриджского университета специально для него. На данный момент у него подвижна только мимическая мышца щеки, именно ей с помощью сенсора он управляет компьютером, чтобы контактировать с окружающими.

Публикации, размещенные на сайте www.ura.news и датированные до 19.02.2020 г., являются архивными и были выпущены другим средством массовой информации. Редакция и учредитель не несут ответственности за публикации других СМИ в соответствии с п. 6 ст. 57 Закона РФ от 27.12.1991 №2124-1 «О средствах массовой информации»

Сохрани номер URA.RU - сообщи новость первым!

Не упустите шанс быть в числе первых, кто узнает о главных новостях России и мира! Присоединяйтесь к подписчикам telegram-канала URA.RU и всегда оставайтесь в курсе событий, которые формируют нашу жизнь. Подписаться на URA.RU.

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Развитие искусственного интеллекта может привести к гибели человечества. Об этом заявил британский ученый Стивен Хокинг в рамках Глобальной конференции мобильного Интернета в Пекине. По словам ученого, искусственный интеллект не только может стать позитивным фактором для человечества, но и способен погубить его, поэтому люди должны осознавать опасность, которую он таит. Опасность эта выражается в том, что новейшие технологии могут привести к деградации человека, сделать его совершенно беспомощным перед лицом природы. А в условиях естественной эволюции и борьбы за выживание это означает верную гибель, передает ТАСС слова ученого. Тем не менее Хокинг отметил, что искусственный интеллект способен решить большинство проблем в мире — при умелом подходе. Глобальная конференция мобильного Интернета проходит в Пекине с 27 апреля по 1 мая. В ней примет участие более 500 представителей крупных компаний со всего мира и 100 тысяч посетителей. Стивен Хокинг — физик-теоретик и ученый с мировым именем. Почти полный паралич вследствие тяжелой болезни и неспособность говорить после перенесенной на гортани операции не остановили его научную деятельность. Хокинг общается с коллегами при помощи синтезатора речи, разработанного инженерами Кембриджского университета специально для него. На данный момент у него подвижна только мимическая мышца щеки, именно ей с помощью сенсора он управляет компьютером, чтобы контактировать с окружающими.
Комментарии ({{items[0].comments_count}})
Показать еще комментарии
оставить свой комментарий
{{item.comments_count}}

{{item.img_lg_alt}}
{{inside_publication.title}}
{{inside_publication.description}}
Предыдущий материал
Следующий материал
Комментарии ({{item.comments_count}})
Показать еще комментарии
оставить свой комментарий
Загрузка...