Было интересно отметить, что было написано об искусственном интеллекте (ИИ) в последние недели, особенно в том, что касается ажиотажа вокруг ChatGPT. Насколько я могу судить, большая часть этого, по сути, сводится к восприятию или страху, что ИИ превзошел людей в том, что касается интеллекта. Доктор Харви Риш поучительный счет из его «разговора» с ИИ убедительно продемонстрировал, что это ошибочное восприятие, и тем не менее оно, похоже, все равно сохраняется.
Недавний опыт, который я имел с энтузиастом ChatGPT, передает то же самое впечатление относительно широко распространенного мнения, что последний AGI (Искусственный Общий Интеллект) равен, если не превосходит людей в отделе сообразительности. Это произошло во время моего выступления перед членами культурной организации на тему того, в какой степени работа Фрейда и Ханны Арендт может пролить свет на нынешний рост коварных тоталитарных мер контроля во всем мире.
Одним из таких показательных событий является попытка Всемирной организации здравоохранения лишить страны их суверенитета путем успешного внесения поправок в ее конституцию. Эта попытка потерпела неудачу два года назад, когда африканские страны выступили против предложенных поправок, но в 2024 году ВОЗ предпримет еще одну попытку, тем временем активно лоббируя африканских лидеров.
После моего выступления кто-то связал его тему с ИИ. В частности, это относилось к моему утверждению, что концепции Эроса (влечения к жизни) и Танатоса (влечения к смерти) Фрейда, с одной стороны, и представления Арендт о рождение (Каждый человек приносит в мир что-то уникальное, рождаясь) и множество (все люди разные), с другой, пролить свет на природу тоталитаризма. Это также связано с вопросом о том, могут ли поддерживать тоталитаризм те, кто его продвигает. Выяснилось, что после того, как тема моего доклада была распространена, он попросил ChatGPT прокомментировать ее и принес «ответ» ИИ на встречу в распечатанном виде, чтобы показать мне.
Как и ожидалось, для исследовательской машины с лингвистическим распознаванием образов и предиктивной исследовательской машиной с огромной базой данных (которой на самом деле является ChatGPT) было нетрудно точно расшифровать, что означают соответствующие концепции Фрейда и Арендта — любой студент мог найти это в Интернете. или в библиотеке тоже. Но когда ИИ дал сбой, это касалось связи, которую я установил между идеями этих мыслителей и текущими событиями, разворачивающимися в глобальном пространстве.
Вспомните, что я эвристически использовал концепции Фрейда и Арендт в связи с тем, что, возможно, является признаками тоталитарных «движений», предпринимаемых сегодня в различных институциональных областях. ChatGPT — опять же предсказуемо — сделал (и, возможно, могли бы) не уточнил связь, которую я подразумевал в распространенном заголовке своего доклада, а просто «заявил», что существует «некоторая» связь между идеями этих двух мыслителей и тоталитаризмом.
Причина этого должна быть очевидна сразу. Нигде в базе данных ChatGPT нет никакой информации — в формате разборчивой интерпретации – симптомами чего являются такие события, как постоянные попытки ВОЗ стать мировым руководящим органом (упомянутые выше), а именно зарождающийся глобальный тоталитарный режим. Чтобы ChatGPT (или любой другой ИИ) смог придумать такую «интерпретацию», он должен быть либо введен в базу данных его программистами — что маловероятно, если не немыслимо, учитывая его подразумеваемую критику самого созвездие сил, которые привели к созданию ChatGPT, или ИИ должен был бы обладать способностью, которой обладают все «нормальные» люди, а именно способностью интерпретировать эмпирический мир вокруг них. Очевидно, что ни один ИИ не обладает такой способностью из-за его зависимости от программирования.
Мой собеседник оспорил этот объяснительный ответ с моей стороны, утверждая, что ChatGPT демонстрирует свою способность «рассуждать» в каждом «ответе», который он дает на вопросы, которые можно задать. Я указал, что это неточное описание того, что делает ИИ. Помните: ChatGPT выдает антропоморфные ответы на заданные ему вопросы на повседневном языке. Он делает это, используя примеры, обнаруженные в колоссальных наборах данных, к которым у него есть доступ и которые позволяют ему предсказывать последовательные слова в предложениях. Кратко говоря: он способен находить статистические закономерности в этих огромных базах данных, используя «машинное обучение».
Это не то, чем является рассуждение, как должен знать каждый студент, изучавший логику и историю философии, — как утверждал Рене Декарт в 17th века, рассуждение представляет собой комбинацию интуитивных прозрений и вывода или дедукции. Человек начинает с интуитивного понимания — скажем, погас свет — и делает вывод, что либо его кто-то выключил, либо отключилось электричество. Или можно сделать вывод (посредством дедукции) из одного набора данных (интуитивное понимание), что другой либо вероятен, либо маловероятен. Никто никогда не прибегает к огромному количеству данных, которые сканируются в поисках закономерностей, демонстрирующих сходство, и на этой основе делают упреждающие прогнозы.
Тем не менее, как можно убедиться от ученых-компьютерщиков, таких как Доктор Арвинд Нараянан, профессор компьютерных наук в Принстонском университете, людей (как и моего собеседника) легко обмануть ИИ, таким как ChatGPT, потому что он кажется таким сложным, и чем более изощренными они становятся, тем труднее пользователям будет заметить их недостатки в отношении псевдорассуждения, а также их ошибки.
Как указывает д-р Нараянан, ответы ChatGPT на некоторые экзаменационные вопросы по информатике, которые он задавал, были фальшивыми, но они были сформулированы таким благовидным образом, что их ложность не была сразу очевидна, и ему пришлось проверить их трижды, прежде чем убедиться, что это было дело. Вот вам и хваленая способность ChatGPT «заменять» людей.
Однако следует помнить, что то, что до сих пор обсуждалось в сравнительных терминах, — это тема, работает ли ИИ, такой как ChatGPT, так же, как люди на уровне интеллекта, который относится к различиям, таким как рассуждение, в отличие от распознавания образов, и так далее. Можно, конечно, сформулировать вопрос и в терминах неполноценности и превосходства, и некоторые утверждают, что люди все еще появляются чтобы перехитрить ИИ, даже если ИИ может выполнять математические вычисления быстрее, чем люди.
Но только если сдвинуться с места, фундаментальные различия между человеком, рассматриваемым целостно, и искусственным интеллектом, каким бы умным он ни был, можно увидеть в перспективе. Это в основном упускается из виду людьми, которые участвуют в дебатах о людях, а не об «искусственном» интеллекте, по той простой причине, что интеллект все, что имеет значение.
Чтобы проиллюстрировать, что я имею в виду, вспомните, что произошло между чемпионом мира по шахматам Гарри Каспаровым и Deep Blue, «суперкомпьютер» IBM, в 1997 году. Потерпев поражение от Каспарова в 1996 году, Deep Blue одержал первую победу над человеком с помощью машины в следующем году, а затем — как и в случае с ChatGPT сегодня — раздались всеобщие жалобы на предполагаемую «кончину» человечества, представленную Каспаровым, побежденным компьютером ( ИИ).
Как и сегодня в отношении ChatGPT, эта реакция была символом ошибки, которую совершало подавляющее большинство людей, когда они оценивали отношения между ИИ и людьми. Обычно такая оценка проводится с точки зрения познания, путем оценки того, кто более «разумен» — люди или машины. Но следует задаться вопросом, был ли интеллект подходящим — не говоря уже о наиболее подходящем — мерилом для сравнения людей и компьютеров (как представителей ИИ) тогда, да и сейчас.
Понятно, что об унижении Каспарова машиной сообщалось в то время повсюду, и я помню, как встречал такое сообщение, где автор продемонстрировал острое понимание того, что я имею в виду, когда говорю о праве или соответствующих критериях для сравнения между людьми и людьми. ИИ. Восстановив удручающие подробности исторического разгрома Каспарова, Deep Blue, этот писатель прибегал к шутливой, но малоинформативной фантастике.
После символического поражения человека, как она или он выдумывала, команда инженеров и ученых-компьютерщиков, которые спроектировали и построили Deep Blue вышли в город, чтобы отпраздновать свой эпохальный триумф. Было бы неправильно писать «победа их машины», потому что, строго говоря, именно человеческая команда одержала победу с помощью «их» компьютера.
Кульминация была подготовлена, когда писатель риторически спросил, Deep Blue, тоже отправился красить город в красный цвет светло-розовым, чтобы насладиться его завоеванием. Излишне подчеркивать, что ответ на этот риторический вопрос отрицательный. За ним последовала кульминация, в которой констатировалось очевидное; а именно, что «люди празднуют; компьютеры (или машины) делают не."
Оглядываясь назад, невольно бросаешься в глаза, что этот писатель был в некотором роде провидцем, использующим вымысел, чтобы подчеркнуть тот факт, что, хотя люди и ИИ имеют общий «интеллект» (хотя и разного рода), он все же отметить наиболее очевидные, непреодолимые различия между ИИ и людьми. Существуют и другие, гораздо более существенные различия между людьми и ИИ, некоторые из которых были изучены здесь и здесь .
Опубликовано под Creative Commons Attribution 4.0 Международная лицензия
Для перепечатки установите каноническую ссылку на оригинал. Институт Браунстоуна Статья и Автор.