Свежие комментарии

  • geo1804
    - который мужественно справляется с бабами и ребятишкамиЧто такое “настоя...
  • Mir Tesen
    Опечатки бывают... В следующем же предложении информация дана корректно. Спасибо за замечание, исправили!10 фактов о Маври...
  • Андрей Баканин
    "Мавритания богата полезными ископаемыми, особенно железом и рудой." Источник: https://infonotes.ru/10-faktov-o-mavri...10 фактов о Маври...

Эффект Элизы, как искуственный интелект очаровал сотрудника Google

Эффект Элизы, как искуственный интелект очаровал сотрудника Google

 

Сотрудник Google по имени Блейк Лемуан недавно был отправлен в отпуск. После того, как заявил, что одна из языковых моделей искусственного интеллекта Google, называемая LaMDA (языковые модели для диалоговых приложений), является разумной.

Он обнародовал свои опасения, поделившись своими текстовыми разговорами с LaMDA. В какой-то момент Лемуан спрашивает: “Что для вас значит слово “душа”?” LaMDA отвечает: “Для меня душа – это концепция оживляющей силы, стоящей за сознанием и самой жизнью”.

“Я был склонен дать ему право на существование”, – объяснил Лемуан. Ссылаясь на свои религиозные убеждения. “Кто я такой, чтобы указывать Богу, куда он может и не может помещать души?”

Маловероятно, что обмен текстовыми сообщениями Лемуана является свидетельством разума. Однако за вопросом о том, что эти расшифровки доказывают или не доказывают, стоит нечто гораздо более глубокое.

 

Что такое эффект Элизы

 

Первый чат-бот - программа, имитирующая человеческий разговор, называлась Eliza. И была создана профессором Массачусетского института Вейценбаумом в 1960-х годах. Как гласит история, его секретарша пришла к выводу, что у нее был содержательный диалог с системой, несмотря на невероятно простую логику программы. Эта форма антропоморфизма стала известна как эффект Элизы.

 

Первый чат-бот – программа, имитирующая человеческий разговор, называлась Eliza. И была создана профессором Массачусетского института Вейценбаумом в 1960-х годах. Как гласит история, его секретарша пришла к выводу, что у нее был содержательный диалог с системой, несмотря на невероятно простую логику программы. Эта форма антропоморфизма стала известна как эффект Элизы.

Лемуан, который кажется вдумчивым и добросердечным человеком с искренними убеждениями, стал, вероятно, жертвой эффекта Элизы. LaMDA, как и многие другие современные “большие языковые модели” (LLM), представляет собой своего рода автозаполнение.

Программа обучена заполнять пробелы в пропущенных словах в огромном лингвистическом массиве. А затем “тонко настраивается” с дальнейшим обучением, специфичным для текстового диалога.

То, что могут сделать эти системы, захватывает дух и является впечатляющим. Однако, когда Лемуан просит LaMDA описать свою “душу”, он говорит не “сам за себя”. Он автоматически дает подсказку. То, что может звучать как сознание, на самом деле всего лишь система, импровизирующая в стиле, “да, и”.

LaMDA обманул Лемуана. Следует ли из этого, что система “проходит тест Тьюринга” в более общем смысле? То есть, демонстрирует ли программа достаточно человеческий разговор. Чтобы люди постоянно не могли отличить его от реального?

 

Могут ли машины думать?

 

Google мог узнать. Можно было бы нанять, скажем, 30 сотрудников в качестве судей и 30 в качестве субъектов контроля, и так далее. Каждый судья будет иметь один разговор с человеком, один с системой. А затем должен будет решить, кто из них кто. Мы получили бы результаты через 15 минут.

 

Google мог бы узнать. Можно было бы нанять, скажем, 30 сотрудников в качестве судей и 30 в качестве субъектов контроля, и так далее. Каждый судья будет иметь один разговор с человеком, один с системой. А затем должен будет решить, кто из них кто. Мы получили бы результаты через 15 минут.

Следуя статье Алана Тьюринга 1950 года, любая точность судей менее 70% будет означать, что машины “проходят”. Поэтому программе нужно будет обмануть только девять из 30 судей, чтобы пройти тест Тьюринга. Вполне возможно, что LaMDA действительно одурачит девять или более судей. Возможно, вы не согласны. Но нет необходимости спорить, потому что выяснить это было бы тривиально легко.

Тьюринг предложил свой тест, первоначально названный “Игра в имитацию”, в качестве замены более теоретического вопроса. “Могут ли машины думать?” Как и предвидел Тьюринг, язык, и особенно беседа, действительно оказались универсальным средством для изучения поведения и способностей.

Разговор по-прежнему полезен для проверки пределов возможностей сегодняшних систем ИИ. Но по мере того, как машины все более искусно преуспевают в Имитационной Игре. Вопрос о чувствительности, истинная суть проблемы, начинает все больше отделяться от простых словесных возможностей.

Чувства – людей, младенцев, зародышей, животных, растений, машин – обсуждались на протяжении тысячелетий. На самом деле мы многое узнали о нейронауке сознания, большая часть которой неинтуитивна и удивительна, только за последние несколько десятилетий.

 

Разговор по-прежнему полезен для проверки пределов возможностей сегодняшних систем ИИ. Но по мере того, как машины все более искусно преуспевают в Имитационной Игре. Вопрос о чувствительности, истинная суть проблемы, начинает все больше отделяться от простых словесных возможностей.

 

Границы сознания

 

Точные критерии смерти мозга значительно изменились с 1960-х годов по настоящее время. И во многих странах они значительно различаются.

Это очень обширная, открытая граница. Мы все еще изучаем различия между синдромом запертости и стойким вегетативным состоянием. Мы все еще изучаем синдром расщепленного мозга и слепое зрение. А также степень нашего сознания во сне.

 

В 1940-х годах исследования, показавшие, что новорожденные не реагируют на уколы булавками, показали, что они не чувствуют боли. И это отодвинуло мнение медиков об анестезии младенцев во время операции. В конце 1980-х годов новые данные – об их гормонах стресса, а также развитии мозга, опровергли эту точку зрения. Дав понять, что анестезия была необходима.

 

Мы все еще изучаем, как рано в утробе матери плод развивает способность чувствовать. И как рано ребенок учится формировать воспоминания.

 

Тем не менее, дебаты продолжаются: некоторые философы настаивают, что животные обладают сознанием. Некоторые - что они не сознательны. А некоторые - что животные заслуживают морального рассмотрения независимо от того, сознательны ли они.

 

Декарт в 1630-х годах без зазрения совести разрезал живых животных для исследования. И писал, что “нет ничего, что уводит слабые умы дальше от прямого пути добродетели, чем представление о том, что души животных имеют ту же природу, что и наши собственные”.

Тем не менее, дебаты продолжаются: некоторые философы настаивают, что животные обладают сознанием. Некоторые – что они не сознательны. А некоторые – что животные заслуживают морального рассмотрения независимо от того, сознательны ли они.

Возможно системы ИИ в принципе могут быть сознательными/разумными/самоосознающими. Хотя бы потому, что нет убедительных аргументов в пользу того, что они не могут. Эти аргументы потребуют понимания природы нашего собственного сознания, которого у нас просто нет.

 

Границы того, что ИИ “не может”, в наши дни двигаются с ошеломляющей скоростью. Прогресс в понимании нейробиологии сознания движется сравнительно медленно, но открытия не менее ошеломляющие. И окно Овертона в отношении таких вещей, как нечеловеческое сознание, основанное на обоих, заметно смещается.

 

 

Определение того, кто и что является или не является разумным, является одним из определяющих вопросов морали. И все же, несмотря на свое центральное место в нашей этике, этот вопрос является совершенно загадочным.

Мы понимаем это лучше, чем поколение назад, и это волнует. Пусть же этот эпизод будет приглашением узнать что-то удивительное или неудобное. И задуматься о том, как мало мы знаем о высшей тайне.

 

 

Ссылка на первоисточник

Картина дня

наверх