Об угрозах живому интеллекту

https://ru.scribd.com/doc/268646022/%D0%9E%D0%B1-%D0%A3%D0%B3%D1%80%D0%BE%D0%B7%D0%B0%D1%85-%D0%96%D0%B8%D0%B2%D0%BE%D0%BC%D1%83-%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83


Доклад -  Оноприенко Владимир Иванович,

доктор философии, профессор, член Комитета поддержки Международного трибунала для естественной справедливости ITNJ—

http://itnjcommittee.org/projects/contribute/#our_signatures

Об исследовании влияния Искусственного Интеллекта на будущее Человечества и оценка рисков. Об инициативах экспертов Института Будущего Жизни (FLI) Стивена Хокинга и Илона Маска,  опубликовавших открытое письмо об опасности Искусственного Интеллекта, в котором подчеркивается, что ученым следует тщательно координировать разработку и сообщать о своих достижениях, чтобы искусственный интеллект не вышел из-под контроля Человечества. Письмо также подписали эксперты из Google, IBM, Microsoft и  Amazon. В декабре 2014 года Хокинг заявил в интервью ВВС, что «разработка полноценного искусственного интеллекта может означать  конец человеческой расы, если такая система начнет неконтролируемо совершенствовать саму себя», а Илон Маск (основатель компаний SpaceX и  Tesla) до того заявлял, что бесконтрольное развитие Искусственного Интеллекта «потенциально опаснее, чем ядерное оружие».
 

Преамбула

Есть весьма распространенное мнение, что исследования искусственного интеллекта прогрессируют постепенно, но их влияние на общество будет увеличиваться. В связи с этим сотни ведущих ученых и предпринимателей мира призывают нас вновь обратить внимание на безопасность и этику, связанные с этой сферой, чтобы предотвратить всякую угрозу для общества и для его сердца – живого интеллекта.

Технологии дали жизни возможность процветать, как никогда раньше. Но они же могут привести к самоуничтожению человечества. Ученый обязан всегда помнить о возможности отрицательных по­следствий результатов своих исследований и искать эффективные спосо­бы контроля за использованием научного знания. Ни научное знание, ни ученый как субъект познания не существует вне общества, причем их связь с обществом становится все теснее.

Глобализация вызвала изменение социальной ориентации науки и кардинально усилила ответственность ученых перед человеческой цивилизацией, обществом, а все большая глобализация ставит перед ними но­вые этические проблемы.

Свобода науки включает, во-первых,  свободу научного творчества и право интел­лектуальной собственности на результаты творческой деятельности, ин­теллектуальную свободу мысли, однако, во-вторых, налагает социальную ответственность на ученых, на их социально-правовой статус, гражданскую  свобо­ду.

Интеллектуальная свобода научной мысли выражается в способнос­ти творческой личности к постановке научных проблем, выдвижению гипотез, обоснованию теорий, выводов, прогнозов и т.п. Выбор объек­тов творчества и методов научных исследований зависит от способнос­тей, дарований, склонностей, воли, желаний, инициативы. В конечном счете личность сама решает, в какой сфере духовной деятельности проя­вить себя. Равным образом осуществляется и выбор наиболее результа­тивных методов, которые позволяют полнее и глубже раскрыть сущ­ность изучаемых объектов, добиться реализации сознательно поставлен­ной цели научного поиска. Свобода научной деятельности тесно увязывается с требованиями социальной ответственности.

Социальная ответственность ученых существовала всегда, но ее роль повышалась вместе с ростом значения науки в обществе. Ученые сознают свой высший долг— служить истине, а, следовательно, нести ответственность за истинность и достоверность полученного результата, нового знания. Но есть и другой результат науки — полезность научных изысканий для обще­ства.

 

В огромной Вселенной к нашим услугам все необходимые ресурсы. Однако у нас также имеются и технологии, способные уничтожить человечество».

«Мы, люди на 99,9999 процентов концентрируемся на краткосрочных планах и практически мало думаем о будущем», — сказал Тегмарк. Возраст Вселенной — около 13,8 миллиарда лет. В нашем распоряжении осталось еще несколько миллиардов лет, в течение которых можно создать себе прекрасные условия для жизни. Даже если через четыре миллиарда лет нас поглотит Солнце.

Открытое письмо – манифест  об опасности Искусственного Интеллекта

В настоящее время специалисты со всего мира подписывают открытое письмо «Об опасности Искусственного Интеллекта», предложенное Институтом будущего жизни (Future of Life Institute) - волонтерской организацией, поставившей перед собой цель уменьшения потенциальных рисков, связанных с развитием искусственного интеллекта. На данный момент в числе подписавших значатся сооснователи Deep Mind, британской компании, приобретенной Google в январе 2014 года, профессора MIT, эксперты IBM и Microsoft Research и такие влиятельные личности, как Илон Маск (Elon Musk) и Стивен Хокинг (Stephen Hawking).

Письмо-манифест состоит из трёх абзацев и вывода. В первых двух из них FLI даёт краткий обзор последним достижениям в области искусственного интеллекта вроде машинного перевода, распознавания речи или автоматической классификации изображений, и отмечает, что технология может принести человечеству в будущем огромную пользу. По мнению организации, на определённом этапе мир, придуманный людьми, начнут заполнять объекты, придуманные роботами.

В конце письма FLI подводит к мысли, что учёные слишком озабочены развитием способности искусственного интеллекта эффективно решать конкретные задачи, и не задумываются о том, что он может в определённый момент начать выбирать себе цели самостоятельно и отказаться от человеческого вмешательства. Авторы письма рекомендуют расширить исследования в направлении повышения надёжности и полезности систем искусственного интеллекта: они должны делать то, что мы хотим, чтобы они сделали.

Напомним, что Илон Маск уже высказывался на тему искусственного интеллекта, отметив, что он может быть опаснее ядерного оружия. "Я все больше уверен в необходимости регулятивного надзора, возможно, на национальном и интернациональном уровне. Просто для того, чтобы быть уверенными в том, что мы не сделаем чего-нибудь очень глупого". Стивен Хокинг же использовал в качестве примера фильм "Превосходство": "Можно представить, что такая технология перехитрит финансовые рынки, станет лучшим изобретателем, чем люди, обойдет лидеров и разработает оружие, которое мы даже не сможем понять". 

В открытом письме говорится о том, что успех в разработке искусственного интеллекта может принесли человечеству несравнимую пользу, потому сейчас необходимо понять, как максимально увеличить эту пользу, избежав потенциальных рисков. 
 

Исследования искусственного интеллекта были посвящены целому ряду проблем и подходов с момента появления [дискурса], но за последние 20 лет они сосредоточились вокруг построения интеллектуальных агентов — систем, которые воспринимают и действуют в определенной среде. В этом контексте «интеллект» относится к статистическим и экономическим понятиям рациональности — проще говоря, способности принимать правильные решения, составлять планы и делать выводы.

Принятие вероятностных, теоретических представлений, решений и статистических методов обучения привели к значительной интеграции и взаимному обогащению искусственного интеллекта (AI), машинного обучения, статистики, теории управления, неврологии и других областей. Создание общих теоретических основ, рамок в сочетании с доступностью данных и вычислительной мощности привело к значительным успехам в решении различных проблем, таких как распознавание речи, классификация изображений, автономные транспортные средства, машинный перевод, роботизированное передвижение  и вопросно-ответные системы.

По мере того как возможности этих и других областей переступают порог лабораторий и переходят к экономически значимым технологиям, общий круг привлекает большие инвестиции в исследования и привлечения даже незначительных улучшений. Есть общепринятое мнение, что исследования искусственного интеллекта прогрессируют постепенно, а их влияние на общество будет увеличиваться. Потенциальные выгоды огромны, поскольку все, что может предложить цивилизация — это продукт человеческого интеллекта; мы не можем предсказать, чего могли бы достичь, если бы этот интеллект был усовершенствован искусственным интеллектом, но в таком контексте искоренение бедности и болезней не являются непостижимыми целями. Из-за мощнейшего потенциала ИИ, очень важно исследовать, как получить его преимущества, избежав потенциальных ловушек».

Письмо обращается ко всем возможным проблемам, которые находятся на стыке искусственного и естественного интеллекта: как предупредить появление автоматического оружия, которое может убивать без разбора; кого винить в том, что автоматический транспорт теряет контроль управления и т. п.

Составители письма не ставят цель напугать общественность, желая лишь подчеркнуть как положительные, так и отрицательные аспекты, связанные с ИИ (Искусственный Интеллект). «Сейчас все сходятся во мнении, что исследования ИИ уверенно прогрессируют, а влияние ИИ на общество будет усиливаться, — говорится в письме. — Открывающиеся возможности огромны, ведь все, что может предложить цивилизация, создано интеллектом человека. Мы не в состоянии предсказать, чего можно будет достичь, если этот интеллект будет умножен средствами ИИ, но проблема избавления от болезней и бедности уже не кажется бесконечно трудной».

В наш быт уже входят многие разработки в области ИИ, включая системы распознавания речи и изображений, беспилотные транспортные средства и т. п. По оценке наблюдателей из Кремниевой долины, в этой области сейчас работает более 150 стартапов. Разработки в области ИИ привлекают все больше инвестиций, все больше компаний вроде Google развивают проекты на базе ИИ. Поэтому, как считают авторы письма, сейчас самое время уделить повышенное внимание возможным последствиям этого бума для социальных, экономических и юридических сторон нашей жизни.

«Многие специалисты по экономике и компьютерным наукам понимают, что необходимо тщательно исследовать пути максимизации выгод от использования ИИ и минимизации негативных побочных эффектов, включая рост неравенства и безработицы», — говорится в письме FLI.

Уже на протяжении многих лет писатели-фантасты рисуют картины будущего, в котором суперкомпьютеры порабощают или вовсе уничтожают человечество. Мы привыкли об этом читать, видеть это в фильмах, а ведь не только деятели искусства допускают такую возможность. Эксперты в области искусственного интеллекта тоже готовятся к худшему, если однажды машины станут умнее людей и уйдут от их контроля.

Стивен Хокинг предрекает  победу искусственного интеллекта

над  человечеством

Развитие систем искусственного интеллекта угрожает человечеству, считает британский физик-теоретик Стивен Хокинг. Стивен Хокинг является создателем и руководителем Центра теоретической космологии в Кембриджском университете. Один из самых известных физиков-теоретиков нашего времени. Несмотря на тяжелое заболевание, приковавшее его к инвалидному креслу, ученый активно занимается популяризацией науки, высказывается по ключевым вопросам развития различных отраслей человеческого знания и общества. «Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», — сказал ученый в интервью BBC.

 

Письмо и сопровождающий его доклад Института будущего жизни (Future of Life Institute), приоритет в исследованиях которого отводится функциональному и полезному искусственному интеллекту, появились на фоне растущей обеспокоенности эффектом, который могут оказать на рабочую занятость и даже выживание человечества в долговременном периоде машины. Интеллектуальные способности машин могут превзойти интеллектуальные способности людей, их создавших", - говорится в статье.

Глава Tesla Motors Илон Маск рассказал, что занимается искусственным интеллектом (он вкладывает средства в компанию Deep Mind), чтобы следить за этим крайне опасным изобретением. Маск даже предположил, что человечество может быть лишь «биологическим загрузчиком» для роботизированных форм жизни, которые начнут править планетой в будущем. Илон Маск постоянно обращает внимание общественности на опасность искуственного интеллекта.

 

Открытое письмо призывает организовать независимое исследование, которое оценит «общественную пользу» новых разработок в сфере AI (искусственного интеллекта). Письмо отмечает, что до текущего времени разработки оставались в пределах «нейтральных или общественно полезных» начинаний. Однако ввиду стремительного роста популярности таких инженерных экспериментов необходимо убедиться, что созданные системы «устойчивы и надежны». 
«Наши системы искусственного интеллекта должны делать то, что мы хотим, чтобы они делали», – отмечается в письме. Сегодня мы стоим на пороге новой эры, так как роботы выходят из лабораторий в сферу широкого экономического применения.


Хотя преимущества от использования этих технологий огромны и мы уже близки к победе над болезнями и бедностью, нам необходимо внимательно отнестись к возможным негативным последствиям и рискам», – признают разработчики AI.
«Сегодня мы сталкиваемся с многочисленными случаями недопонимания реального масштаба этих вопросов», – признал Тони Прескотт, директор центра роботостроения в Шеффилде. Прескотт отмечает, что подписание подобных обращений ведущими технологическими компаниями, такими как Google, – хороший знак, и он стремится к тому, чтобы их подписали в том числе и государства.

 

Сумма угроз может стать их системой

Человечество прошло по дороге развития технологий достаточно длинный путь. Однако прогресс в области изобретений, направленных на улучшение качества жизни, всегда шагал в одном ряду с появлением новых видов оружия. Кто-то может оправдаться, заявив, что этот вектор развития новых технологий — вынужденная мера, самозащита, другие скажут, что в этом заключается природа человека. Так или иначе, люди получили в свое распоряжение за последнее столетие множество новых способов для уничтожения себе подобных с планетарным размахом. Разработки новых воплощений оружия массового поражения ведутся во многих странах. Поэтому так актуален этот вопрос.

 

Автономное оружие
Роботизированные транспортные средства находятся на данный момент в стадии разработки. Их основная цель — найти и уничтожить вражеские войска и технику на земле или в воздухе без человеческих потерь. Они функционируют на принципах интерпретации данных, полученных от датчиков, для идентификации и ликвидации враждебных сил с помощью встроенного оружия. Такие роботы могут запрашивать управляющего человека для разрешения на огонь и распознавать дружественные силы с помощью передающих сигнал устройств, которые идентифицируют их как «друзей». Основная проблема внедрения автономных «убийц» заключается в несовершенстве системы опознания цели. Поэтому, теоретически, мирные жители находились бы в опасности, если такие устройства стали в массовом порядке появляться на улицах.

Системная угроза – это использование социальных сетей для манипулирования массами

Здесь много возможностей организовывать протесты в тех странах, где происходят массовые волнения, даже не находясь в этих странах. То есть существует возможность «манипулировать массами» и вмешиваться во внутренние дела страны или отдельной территории извне.

Пролонгированной угрозой развитию живого интеллекта человечества является возрастающая зависимость молодого поколения от Интернета

Дети современности растут в цифровом мире, их мировоззрение может не измениться и тогда, когда они станут взрослыми. Например, они привыкнуть голосовать онлайн, и если избирательная система не предоставит им такой возможности, то они вообще откажутся участвовать в выборах. Устройство интернета изначально тоталитарно. То есть уже сейчас отсутствие развитых систем онлайн-выборов ставит под вопрос будущее демократии во многих развитых странах. Закат эпохи ядерного вооружения послужил окончанием холодной войны. Теперь логика многообразия в основе интернета — ключ к пониманию приближающейся войны за интеллектуальный центр нашей цивилизации.

 

Однако мы не должны отворачиваться от интернета. Мы должны бороться за интернет. Когда люди основали первые города, это позволило им объединяться в большие группы и быстро обмениваться идеями. Нечто подобное происходит и в нашу эпоху. Интернет позволил людям намного эффективнее общаться, приходить к консенсусу, заниматься самообразованием и координировать усилия для борьбы с узурпировавшими власть силами. И для этого у нас есть простое и демократическое оружие, о котором мечтал Оруэлл — криптография, математический метод, находящийся в основе биткоина и наиболее безопасных программ для коммуникации. Производство криптографии почти ничего не стоит — нужное программное обеспечение может быть написано на домашнем компьютере, его легко копировать и часто невозможно взломать.

Угрозы интернета и его новейших механизмов уже давно подробно описаны, но, кажется, только теперь человечество по-настоящему расстается с ребяческим восторгом, связанным с этим величайшим человеческим изобретением. Соцсети непоправимо уродуют человека, и загонят его обратно в пещеру первобытного чудовища с его фрагментарным, животным, фэйсбучным сознанием, лишь реагирующим на изменения внешней среды (обновления ленты), не способным на чем-то сосредоточиться и обдумать хотя бы одну мысль до конца. Однако изобретение интернета - это очередной крутой поворот в истории человечества, подобно изобретению печатного станка. Преодоление таких поворотов, очевидно, является нашей судьбой, призванием и гордостью.

------------------------///

По мере развития технического прогресса в ближайшие годы, последствия его  могут  быть гораздо более катастрофичными для человечества, если не предпринимать широких мер для устранения заблуждений человечества о достоинствах ИИ. Эти опасения прогнозируют исследователи из Института будущего человечества (МЗС-Будущее человечества Институт является многопрофильным научно-исследовательский институтом в Оксфордском университете.), и вероятность катастрофы Живого интеллекта высока. На самом деле, по расчетам  МЗС  график оценки вероятности того, что человечество вымрет в течение ближайших 100 лет составляет от 40 до 19 процентов. "Это, очевидно, тревожно, но оно по-прежнему означает, что  81% процент- это шанс, что  этого не произойдет в ближайшие 100 лет", - говорит профессор Ник Бостром, директор Института. Он добавляет, что мы можем косвенно улучшить наши шансы, создав коллективный разум и глобальный доступ к информации, чтобы позволить обществу контролировать ИИ для более быстрого выявления потенциально опасных новых технологических достижений.

Прогноз потенциала для вымирания человечества может показаться мрачным, но МЗС -  исследователи считают, что он может стимулировать людей начать думать, и принимать меры.

Мы не можем просто привыкать и учиться на собственном опыте и адаптации. Мы должны предвидеть и избежать экзистенциального риска.  Поэтому, одна из самых важных задач исследователей рисков на данный момент заключается в повышении уровня осведомленности человечества о потенциально разрушительных ситуациях для живого интеллекта Планеты в сфере развития Искусственного Интеллекта.

Российские ученые еще в 2013 году разработали и обнародовали Декларацию – Хартию Исследователей Ноосферы, где сфокусировано внимание общества на  необходимость соблюдения общечеловеческих  этических норм в исследованиях, которые могут навредить живому: «3.1.Исследователи должны вести свои исследования для блага человечества и расширения границ научного знания, обладая свободой мысли и слова, свободой выбирать методы решения проблем, в соответствии с признанными этическим принципами и нормам. Такие ограничения не должны нарушать признанные этические принципы и нормы, которых исследователи должны придерживаться. 4.2.Исследователи должны придерживаться признанных этических норм и фундаментальных этических принципов, сложившихся в их дисциплине, равно как и этических стандартов, зафиксированных в различных национальных, отраслевых или институциональных этических Кодексах. 4.3.Исследователи должны сознавать, что они ответственны перед обществом в целом. 12. Заключение. Подписавшие настоящую Хартию, целиком и полностью разделяют Хартию Земли (принята ЮНЕСКО в 2000 году), содержащую фундаментальные принципы для создания справедливого, устойчивого и мирного глобального общества в двадцать первом веке и направленной на то, чтобы пробудить в каждом человеке новое чувство взаимозависимости и всеобщей ответственности за процветание людей и всего живого сообщества. 

 

 

 

Оноприенко В.И. Декларация живого интеллекта – Изд-во Altaspera Publishing & Literary Agency Inc., 2015 – 69с.

ISBN

9781312898325

Copyright - Владимир Оноприенко (Стандартная Лицензия на Авторские Права)

Оноприенко В.И. 1 Хартия исследователей Ноосферы // Ноосфера. Общество. Человек. – 2014. – № 1; 
URL: www.es.rae.ru/noocivil/233-1179 

http://ru.scribd.com/doc/196161041/Хартия-исследователей-Ноосферы-Noosphere#logout

Vladimir Onoprienko. Onopriyenko VI. Оноприенко Владимир Иванович, 2013-VLADIMIR ONOPRIENKO--http://scireg.org/rus/users/id/125; Свидетельство 07N-4I-36//. Это официальная страница электронного свидетельства о регистрации данных в системе COPYTRUST № 07N-4I-36 от 25.12.2013.

 

Рейтинг всех персональных страниц

Избранные публикации

Как стать нашим автором?
Прислать нам свою биографию или статью

Присылайте нам любой материал и, если он не содержит сведений запрещенных к публикации
в СМИ законом и соответствует политике нашего портала, он будет опубликован