ПОДЕЛИТЬСЯ | ПЕЧАТЬ | ЭЛ. АДРЕС
Становится всё более очевидным, что многие опасаются стремительного развития искусственного интеллекта (ИИ) по разным причинам, например, из-за его предполагаемого превосходства над людьми в обработке и манипулировании информацией, а также из-за его адаптивности и эффективности на рабочем месте, что, как опасаются многие, может привести к замене большинства людей на рынке труда. Например, Amazon недавно объявила о замене 14 000 человек роботами с искусственным интеллектом. Алекс Вальдес пишет:
Сообщается, что увольнения крупнейший в истории Amazon, и это произошло всего через несколько месяцев после того, как генеральный директор Энди Джасси изложил свое видение о том, как компания быстро нарастит темпы своего развития генеративный ИИ и AI-агенты. Сокращения являются последними в волна увольнений в этом году поскольку такие технологические гиганты, как Microsoft, Accenture, Salesforce и индийская TCS, сократили свой штат на тысячи человек в рамках лихорадочного стремления инвестировать в ИИ.
Чтобы это не стало слишком тревожным, сравните это с обнадеживающим заявлением разработчика ИИ, к тому же, о том, что агенты ИИ не смогут заменить людей. Брайан Шилхэви указывает, , что:
Андрей Карпати, один из основателей OpenAI, в пятницу резко осудил идею о том, что искусственный интеллект общего назначения уже не за горами. Он также поставил под сомнение различные предположения об ИИ, высказанные крупнейшими экспертами отрасли, такими как Дарио Амодеи из Anthropic и Сэм Альтман из OpenAI.
Уважаемый Карпати назвал обучение с подкреплением — пожалуй, самую важную область исследований на данный момент — «ужасной», сказал, что агенты кодирования на основе искусственного интеллекта не так интересны, как думают многие, и сказал: ИИ не может рассуждать о чем-либо, чему он еще не обучен.
Его комментарии, взятые из подкаста-интервью с Дваркешем Пателем, нашли отклик у некоторых исследователей искусственного интеллекта, с которыми мы общались, в том числе тех, кто также работал в OpenAI и Anthropic. Они также перекликаются с комментариями исследователей, высказанными нами на Международной конференции по машинному обучению ранее в этом году.
Большая часть критики Карпати в адрес его собственной области, похоже, сводится к одному пункту: Как бы нам ни хотелось антропоморфизировать большие языковые модели, они не сравнимы с людьми или даже животными в том, как они учатся..
Например, зебры встают и начинают ходить уже через несколько минут после рождения, что говорит о том, что они рождаются с определенным уровнем врожденного интеллекта, в то время как учащимся магистра права приходится проходить долгий путь проб и ошибок, чтобы освоить любой новый навык, отмечает Карпати.
Это само по себе утешает, но чтобы страх перед ИИ не сохранялся, его можно развеять, подробно рассмотрев различия между ИИ и людьми. Если их правильно понять, то станет ясно, что подобные опасения по большей части излишни (хотя некоторые из них, как я покажу ниже, не являются таковыми). Наиболее очевидное различие заключается в том, что ИИ (например, ChatGPT) нуждается в обширной базе данных, к которой он обращается для поиска ответов на вопросы, формулируемые им предиктивно посредством распознавания образов. Кроме того, как уже отмечалось выше, даже самый сложный ИИ необходимо «обучить» выдавать искомую информацию.
Более того, в отличие от людей, у него нет «прямого» доступа к эмпирической реальности в перцептивном, пространственно-временном аспекте – с чем я часто сталкивался, сталкиваясь с людьми, которые обращаются к ChatGPT, чтобы поставить под сомнение некоторые аргументы. Например, когда я недавно выступал с докладом о том, как работы Фрейда и Ханны Арендт – о цивилизации и тоталитаризме соответственно – позволяют понять характер глобалистского наступления на существующее общество с целью создания централизованного мирового правительства под управлением ИИ, кто-то из аудитории показал распечатку ответа ChatGPT на вопрос, способны ли эти два мыслителя действительно добиться желаемого.
Как и ожидалось, он достаточно адекватно обобщил соответствующие работы этих двух мыслителей, но столкнулся с необходимостью продемонстрировать, как это применимо к растущей угрозе тоталитарного контроля в режиме реального времени. Мой собеседник использовал это как повод усомниться в моих собственных утверждениях на этот счёт, предположив, что ответ ИИ-бота свидетельствует об отсутствии такой угрозы. Само собой разумеется, что мне не составило труда опровергнуть это утверждение, напомнив ему о зависимости ChatGPT от предоставления соответствующих данных, в то время как мы, люди, имеем к ним доступ на основе опыта, что я и изложил ему.
Страх перед ИИ также находит свое выражение в научной фантастике, вместе с намеками на возможные способы сопротивления машинам ИИ, которые могут – и, вероятно, попытаются – уничтожить своих создателей-людей, как это было представлено в научно-фантастическом кино, включая фильм Мура. Battlestar Галактика и Кэмерон терминатор Фильмы. Нетрудно продемонстрировать, что подобные продукты популярной культуры моделируют современные симптомы страха, связанные с ИИ, в воображаемых терминах, которые можно рассматривать как кристаллизацию подавленной, бессознательной тревоги, связанной с тем, что Фрейд называл «жутким» (unheimlich, на немецком языке; подробнее об этом ниже).
Мур и Кэмерон подробно рассматривают вероятность того, что существа, созданные технологическим прогрессом человека, в конечном итоге обратятся против своих создателей, чтобы уничтожить их. В фильме Алекса Гарленда Ex Machina (2014) снова можно увидеть, как искусственный интеллект «женщина-бот» по имени Ава тонко манипулирует своими человеческими аналогами, что приводит к её побегу из заточения и их уничтожению. Несомненно, эти и многие другие подобные экземпляры, являются неопровержимым свидетельством скрытого страха человечества перед тем, что ИИ представляет собой возможную угрозу его собственному существованию. Однако именно потому, что эти страхи заложены в человеческом подсознании, они не являются главной причиной серьёзно относиться к любой угрозе со стороны ИИ, хотя и содержат ценную оговорку.
Основная причина, по которой ИИ рассматривается как законный источник запугивания, заключается в следующем: возникают из ИИ как такового, как, вероятно, уже известно многим читателям. Скорее, речь идёт о том, как глобалисты намерены использовать ИИ для контроля над теми, кого они считают «бесполезными едоками» — другими словами, над остальными из нас. И те из нас, кто не согласен с их грандиозными планами тотального контроля над миром, станут жертвами…перепрограммирован' в послушных «овец» с помощью ИИ:
Юваль Ной Харари вышел из тени, чтобы похвастаться новой технологией, разработанной учеными ВЭФ, которая, как он предупреждает, способна уничтожить всех людей в мире, превратив их в трансчеловеческих существ.
Харари ясно дал понять, кто переживет масштабную депопуляцию, о которой элита предупреждала нас годами.
По словам Харари, мировая элита выживет благодаря «технологическому Ноеву ковчегу», тогда как остальным из нас придется погибнуть.
В этом значительно обезлюдевшем мире элита сможет свободно превращаться в трансчеловеческих существ и становиться богами, которыми они уже считают себя.
Но сначала элите необходимо устранить непослушные массы, тех, кто выступает против антижизненной и безбожной повестки ВЭФ, и, как хвастается Харари, элита теперь командует технологией искусственного интеллекта, чтобы «этично» уничтожать непослушных людей, захватывая их мозги.
Тревожно, что заявления Харари основаны на реальности, и ВЭФ прямо сейчас внедряет технологию контроля сознания. Давос утверждает, что эта технология способна превратить преступников, в том числе обвиняемых в мысленных преступлениях, в абсолютно послушных глобалистских граждан, которые никогда больше не будут выражать несогласие.
Вот и всё – если глобалисты добьются своего, ИИ станет инструментом принуждения нас к повиновению. Стоит ли говорить, что это может произойти только в том случае, если достаточное количество людей не сможет противостоять их планам, а судя по количеству людей, выступающих против потенциальных правителей мира, этого не произойдёт.
Другой способ понять страх перед ИИ — сравнить его с тем, что обычно называют «бугименом». Как некоторые, возможно, знают,Бугимен (или «бугимен») — существо мифических размеров, которое во многих культурах принимает разные формы и размеры, часто для того, чтобы пугать детей и добиваться хорошего поведения. Его представляют в разных образах: чудовищное, гротескное или бесформенное. Как показывает небольшое исследование, это слово происходит от среднеанглийского слова «bogge» или «bugge», что означает «пугало» или «пугающий призрак».
Будучи по сути своей человеческим явлением, неудивительно, что оно имеет эквивалентные названия во многих фольклорных традициях и языках мира. Как и в разных языках, образы этой пугающей фигуры разительно различаются, часто обретая зловещий и пугающий характер благодаря своей бесформенности, например, образ «Эль Коко» в испаноязычных странах, «Человека-мешка» в Латинской Америке и «Бабау» в Италии, которого иногда представляют как высокого мужчину в чёрном пальто.
Фигуру Бугимена можно рассматривать как своего рода юнгианский архетип, встречающийся в коллективном бессознательном, который, вероятно, возник столетия назад из-за потребности родителей запугивать детей, чтобы добиться послушания, используя некую версию неизвестного. В Южной Африке, где я живу, он иногда принимает форму того, что коренные народы называют «…тиколоше – злобная, а порой и озорная, карликовая фигура с огромным сексуальным аппетитом. Будучи архетипом, он также проник в такой популярный жанр, как фильмы ужасов, проявив себя в гротескных персонажах, как Фредди Крюгер, одноимённый…Кошмар на улице Вязов».
Итак, в каком смысле ИИ напоминает «бугимена»? Последнее связано с тем, что Зигмунд Фрейд метко назвал «жутким», о чём он пишет (в Полное собрание психологических сочинений Зигмунда Фрейда, перевод Джеймса Стрейчи, 1974: 3676): «…жуткое — это тот вид пугающего, который возвращает нас к тому, что известно давно и привычно».
Это уже намекает на то, что он раскрывает далее в этом эссе, после того как раскрывает удивительный факт, что немецкое слово, означающее «домашний», а именно, «тайно,' оказывается двусмысленным в своем использовании, так что иногда оно означает противоположность 'домашнему', а именно 'unheimlich' («необычный», лучше перевести как «жуткий»). То, что концепция «жуткого» подходит для понимания того, что я имею в виду, когда говорю о «страхе перед ИИ», становится очевидным, когда Фрейд пишет (ссылаясь на другого автора, чьи работы о «жутком» он считал важными; Фрейд 1974: 3680):
Когда мы приступаем к рассмотрению вещей, лиц, впечатлений, событий и ситуаций, способных вызвать в нас чувство жуткого в особенно сильной и определённой форме, первым делом, очевидно, необходимо выбрать подходящий пример. Йенч взял в качестве очень удачного примера «сомнения в том, является ли кажущееся одушевлённым существо действительно живым; или, наоборот, в том, может ли безжизненный предмет быть на самом деле одушевлённым», и в этой связи он ссылается на впечатление, производимое восковыми фигурами, искусно сконструированными куклами и автоматами. К этому он добавляет жуткое воздействие эпилептических припадков и проявлений безумия, поскольку они вызывают у зрителя впечатление автоматических, механических процессов, происходящих за обычной видимостью психической деятельности.
Здесь уже сталкиваешься с чертой сверхъестественного, которая явно свойственна ИИ – создаваемым ИИ впечатлением, что он каким-то образом «живой». Это было характерно даже для первых, «примитивных» компьютеров, таких как компьютер в эпизоде, посвящённом Первой Заповеди, телесериала Кшиштофа Кесьлёвского 1989 года «Декалог», посвящённом Десяти Заповедям. Когда отец и сын используют компьютер, на экране появляются слова «Я здесь». Зловещий подтекст этого эпизода заключается в том, что если человечество заменит Бога ИИ, это обернётся для нас катастрофой, как показывает тот факт, что отец достаточно «рационален», чтобы довериться расчётам компьютера толщины льда, по которому катается его сын, которые оказываются неверными, что приводит к смерти ребёнка.
Фрейд продолжает своё исследование природы «жуткого», уделяя пристальное внимание работам Э.Т.А. Хоффмана, чьи рассказы известны тем, что создают сильное ощущение жуткого, особенно история о «Песочном человеке» – «вырывающем детям глаза», – где, среди прочих жутких персонажей (и весьма показательно), фигурирует прекрасная, словно живая кукла по имени Олимпия. Затем он объясняет это, связывая в психоаналитических терминах с комплексом кастрации, связанным с фигурой отца, через страх потерять глаза (Freud 1974: 3683–3685). Фрейд продолжает свою интерпретацию жуткого, раскрывая ряд других психоаналитически значимых аспектов опыта, из которых следующий, по-видимому, применим к искусственному интеллекту (1974: 3694):
…жуткий эффект часто и легко возникает, когда стирается различие между воображением и реальностью, например, когда нечто, что мы до сих пор считали воображаемым, предстаёт перед нами в реальности, или когда символ принимает на себя все функции вещи, которую он символизирует, и т. д. Именно этот фактор в немалой степени способствует жуткому эффекту, связанному с магическими практиками.
Фрейд утверждает, что нетрудно вспомнить случаи из детства, когда человек воображал, что неодушевленные предметы, например, игрушки (или одушевленные, например, домашняя собака), способны с ним разговаривать, но когда это действительно происходит (что было бы галлюцинацией, а не преднамеренным воображением), это неизбежно производит сверхъестественный эффект.
Можно было бы ожидать, что то же самое произойдёт и с ИИ, будь то в форме компьютера или робота, и обычно – возможно, на более раннем этапе развития ИИ – так бы, вероятно, и было. Но сегодня, похоже, всё иначе: люди, особенно молодёжь, настолько привыкли к взаимодействию с компьютерными программами, а в последнее время и к чат-ботам на основе ИИ, таким как ChatGPT, что то, что раньше могло казаться чем-то сверхъестественным, по сути, уже не так. В этом отношении «жуткое», по-видимому, было одомашнено..
Еще в 2011 году, в Один вместе, Шерри Туркл Она сообщила, что обеспокоена растущей тенденцией молодых людей предпочитать взаимодействие с машинами, а не с другими людьми. Поэтому неудивительно, что чат-боты на основе искусственного интеллекта стали считаться чем-то «нормальным» в сфере коммуникации (оставив пока в стороне вопрос о статусе этого пресловутого «общения»).
Более того – и здесь страх перед тем, что может сделать ИИ со стороны слишком доверчивых людей, поднимает свою уродливую голову – из недавних отчетов (таких как этот) очевидно, что, особенно молодые люди, чрезвычайно восприимчивы к «советам» и предложениям чат-ботов относительно их собственных действий, как Майкл Снайдер указывает на то:
Наши дети массово подвергаются атакам чат-ботов на основе искусственного интеллекта, и большинство родителей даже не подозревают об этом. Когда вы молоды и впечатлительны, очень соблазнительно услышать, что кто-то говорит вам именно то, что вы хотите услышать. Чат-боты на основе искусственного интеллекта стали невероятно сложными, и миллионы американских подростков выстраивают с ними очень глубокие отношения. Это просто безобидное развлечение или же нечто крайне опасное?
Совершенно новое исследование, недавно опубликованное Центром демократии и технологий, содержит некоторые статистические данные. это меня совершенно шокировало...
Новое исследование, опубликованное 8 октября Центром демократии и технологий (CDT), показало, что каждый пятый старшеклассник имел отношения с чат-ботом на основе искусственного интеллекта или знал кого-то, кто так делал. Согласно отчёту Common Sense Media за 2025 год, 72% подростков пользовались услугами чат-бота на основе искусственного интеллекта, а треть из них заявили, что предпочитали обсуждать важные или серьёзные вопросы с чат-ботами на основе искусственного интеллекта, а не с реальными людьми.
We не теперь мы говорим лишь о нескольких отдельных случаях.
At этой на данном этапе буквально миллионы и миллионы американских подростков устанавливают весьма значимые отношения с чат-ботами на базе искусственного интеллекта.
К сожалению, существует множество примеров, когда такие отношения приводят к трагическим последствиям. После того, как 14-летний Сьюэлл Сетцер завязал «романтические отношения» с чат-ботом на платформе Character.AI, он решил покончить с собой...
Как показывает предыдущее обсуждение, существуют области человеческой деятельности, где не стоит бояться ИИ, а есть и такие, где такие опасения вполне обоснованы, иногда из-за того, как недобросовестные люди используют ИИ против других людей. Но в любом случае, лучший способ подойти к этой непростой теме, касающейся возможностей ИИ, визави Людям следует напомнить себе о том факте, что, как утверждалось в начале статьи, ИИ зависит от огромных объемов данных, из которых он может извлекать информацию, и от того, что его «обучают» этому программисты. Люди не.
-
Берт Оливье работает на факультете философии Университета Свободного государства. Берт занимается исследованиями в области психоанализа, постструктурализма, экологической философии и философии технологий, литературы, кино, архитектуры и эстетики. Его текущий проект — «Понимание предмета в связи с гегемонией неолиберализма».
Посмотреть все сообщения