Суббота, 17-Апр-2021, 12:49
Приветствую Вас Гость | RSS
Главная | Регистрация | Вход
Поиск

Вход на сайт
E-mail:
Пароль:

Меню сайта

Категории раздела
Аномалии, аномальные новости [162]
В Мире [51]
Гипотезы, версии, теории [558]
Документальные фильмы [716]
Животные,растения [2]
История,археология [163]
Кулинария [2]
Музыкальная пауза [18]
Наука [23]
Непознанное, мистика [741]
НЛО, инопланетяне [930]
Необычные явления [11]
Общество [32]
Разное. Мир вокруг нас [226]
Российские новости [4]
Стихии и погода [116]
Строительство,ремонт [1]
Фазенда,сад,огород [3]
Художественные фильмы [32]
Человек. Здоровье. Выживание [103]
Экология [4]

Вход на сайт
E-mail:
Пароль:

Календарь
«  Май 2014  »
ПнВтСрЧтПтСбВс
   1234
567891011
12131415161718
19202122232425
262728293031

Архив записей

Наш опрос
Оцените мой сайт
Всего ответов: 3

Мини-чат

Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

Друзья сайта
Мой сайт

23:45
Стивена Хокинг о конце человеческой цивилизации
Искусственный интеллект, к созданию которого так стремятся ученые, может быть приговором для человечества. Это апокалипсическое утверждение принадлежит известному физику Стивену Хокингу и было обнародовано в статье в британской прессе.


«Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним», – предупреждает ученый. Как объясняет Хокинг, роботы, наделенные высшим разумом, смогут развиваться и превысят скромный человеческий потенциал.

Они могли бы манипулировать финансовыми рынками и контролировать политических лидеров. Не в последнюю очередь, они смогут разработать оружие, принципы которого человек будет не в состоянии понять. Физик советует научному миру уделять больше внимания этим вопросам и действовать соответственно.
Категория: Гипотезы, версии, теории | Просмотров: 967 | Добавил: Aliska2003 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Используются технологии uCozCopyright hronika.moy.su © 2021