Четверг, 21-Ноя-2024, 15:41
Приветствую Вас Гость | RSS
Главная | | Регистрация | Вход
Поиск

Вход на сайт

Меню сайта

Категории раздела
Аномалии, аномальные новости [162]
В Мире [51]
Гипотезы, версии, теории [558]
Документальные фильмы [716]
Животные,растения [2]
История,археология [163]
Кулинария [2]
Музыкальная пауза [18]
Наука [23]
Непознанное, мистика [741]
НЛО, инопланетяне [930]
Необычные явления [11]
Общество [32]
Разное. Мир вокруг нас [226]
Российские новости [4]
Стихии и погода [116]
Строительство,ремонт [1]
Фазенда,сад,огород [3]
Художественные фильмы [32]
Человек. Здоровье. Выживание [103]
Экология [4]

Вход на сайт

Календарь
«  Май 2013  »
ПнВтСрЧтПтСбВс
  12345
6789101112
13141516171819
20212223242526
2728293031

Архив записей

Наш опрос
Оцените мой сайт
Всего ответов: 3

Мини-чат

Статистика

Онлайн всего: 10
Гостей: 10
Пользователей: 0

Друзья сайта
Мой сайт

23:45
Развитие высоких технологий может стать гибелью для человечества
По словам команды философов, математиков и ученых из Оксфордского университета будущего человечества, появляется все больше доказательств того факта, что наша зависимость от технологий может стать причиной гибели человеческой расы



СМИ активно обсуждают целый спектр вероятных катастроф, которые могут уничтожить человечество, но самые «популярные» угрозы, среди которых падение астероида, землетрясение и извержения вулканов, вряд ли погубят население планеты в ближайшем будущем

Таково мнение Ника Бострома, философа и директора Университета будущего человечества, который совместно с коллегами пытается определить действительные причины гибели людей.

В последнем опубликованном релизе специалисты отметили, что люди погубят сами себя посредством своих технологий.

По словам Бострома, в настоящий момент между странами завязалась самая настоящая технологическая гонка, поэтому людям придется стать достаточно мудрыми, чтобы использовать инновации лишь во благо.

К таким хорошо известным угрозам, как ядерный холокост, добавляются быстро развивающиеся технологии, среди которых машинный интеллект и наносистемы, которые несут как беспрецедентные возможности, так и риски.

Технология производства деструктивных наноботов выглядит намного более простой, нежели создание эффективной защиты от подобных атак. Поэтому, вполне возможно, придется пережить период уязвимости, когда нельзя будет допустить, чтобы эти технологии попали в «неправильные» руки.

Не стоит забывать, что перед человечеством по-прежнему стоит угроза ядерного холокоста. Несмотря на проводимое сейчас ядерное разоружение, нельзя исключать будущие гонки в этой области. А это может привести к созданию арсеналов, в разы превышающих те, что создавались в период холодной войны.

Также есть вероятность создания плохо запрограммированного искусственного интеллекта. Рано или поздно подобная технология появится, но если ученые ошибутся в расчетах, то интеллектуальное превосходство машин позволит им полностью уничтожить человечество.

Еще одну опасность несут генетические эксперименты. Развитие генетических технологий, происходящее в настоящий момент, может позволить любому «злому гению» разработать «вирус конца света». Причем опасные вирусы могут появиться случайно в рамках лабораторных опытов, начав распространяться по всей планете.

Еще одна потенциальная угроза, про которую говорят экологи, это разрушение экосистем и истощение ресурсов. Природные ресурсы, необходимые для существования высокотехнологичной цивилизации, быстро исчезают. Поэтому, если что-то, например катаклизм, разрушит технологии, которыми мы обладаем, то снова достигнуть нынешнего уровня прогресса будет очень сложно.

Прямым путем к гибели может стать преднамеренное злоупотребление нанотехнологиями. Развитие науки позволит создать самовоспроизводящихся роботов размером с бактерию, которые могут быть использованы против людей.
Категория: Гипотезы, версии, теории | Просмотров: 1301 | Добавил: Genryh2012 | Теги: конец света | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Используются технологии uCozCopyright hronika.moy.su © 2024