Возможно, когда-нибудь и появится настоящий ИИ, но ChatGPT – не он.
Алан Тьюринг, один из основоположников компьютерных наук, был одержим искусственным интеллектом в конце своей трагически короткой жизни. На самом деле настолько, что даже придумал неофициальный тест для определения момента, когда компьютер следует называть действительно разумным, который теперь мы называем тестом Тьюринга.
Тест довольно простой. Дайте кому-нибудь пообщаться с компьютером и, если он не сможет сказать, что разговаривает с компьютером, то есть диалог не отличить от общения с человеком, тогда компьютер восходит к уровню человеческого интеллекта.
Что ж, ChatGPT, похоже, проходит этот тест с честью. На самом деле, он не просто сдаёт тест Тьюринга, он сдаёт экзамен в медицинскую школу параллельно с экзаменом в юридический факультет и, по крайней мере, может выполнить домашнее задание каждого школьника в России.
И если вы не знаете, что такое ChatGPT, достижения могут показаться ошеломляющими. Настолько, что люди начинают проецировать на ChatGPT и его генеративный ИИ те качества и человеческие характеристики, которых у него на самом деле нет.
Обычно это не стало бы серьезной проблемой. Люди всё время неправильно понимают самые разные вещи, но поскольку ИИ, подобные ChatGPT, становятся всё более распространенными в последнее время, люди вкладывают в них свойства, которых у них на самом деле нет, делая неверные выводы, преумножая их опасность над полезностью.
Что такое генеративный ИИ?
Основополагающая технология, лежащая в основе ChatGPT, Stable Diffusion и всех остальных ИИ, которые создают изображения, тесты, музыку и многое другое, известна как Generative Adversarial Network (GAN). Мы не будем углубляться слишком сильно, но, по сути, GAN – это две программные системы, работающие вместе. Одна ответственна за вывод, генерацию, а другая определяет действительность данных, то есть классификатор.
Генератор и классификатор в GAN перемещаются слово за слово или пиксель за пикселем и, по сути, ищут консенсус, прежде чем перейти к следующему сегменту. Шаг за шагом (буквально) GAN производит результат, который очень похож на то, что может сделать человек, творческий человек.
Генератор полагается на непристойно огромное количество входных данных, на которых он «обучается» для получения выходных данных, а классификатор полагается на свои собственные входные данные, чтобы определить, имеет ли смысл результат генератора. Это может быть или не быть тем, как человеческий интеллект «создаёт» новые вещи – неврологи всё ещё пытаются разобраться – но во многих отношениях вы легко различаете дерево от плода, который на нём растёт, поэтому достичь человеческого интеллекта не так уж сложно. Верно? Допустим…
(Изображение предоставлено: Wiki)
ChatGPT проходит тест Тьюринга, но имеет ли это значение?
Когда Тьюринг придумал свой тест на искусственный интеллект, он имел в виду беседу с рациональным субъектом, чтобы вы не могли сказать, что разговариваете с машиной. Подразумевается следующая идея: машина понимает, что вы говорите. Не распознаёт ключевые слова и генерирует вероятностный ответ на длинный набор ключевых слов, а понимает.
Для Тьюринга общение с машиной на таком уровне, на котором она была неотличима от диалога с человеком, указывало на уровень искусственного интеллекта потому, что создание обширного хранилища слов с разным весом, определенным на основе их предшествования в диалоге, просто не было возможным в то время.
Математика, необходимая для такого рода расчетов, на машинах, которым потребуется целый день для выполнения расчетов, сегодня выполняется дешевым смартфоном в наносекунды, а тогда была неразрешимой, как подсчет всех атомов во Вселенной. Этот вариант просто не рассматривался.
К сожалению, Тьюринг не прожил достаточно долго, чтобы предвидеть рост науки о данных и чат-ботов или даже интегральной схемы, на которой работают современные компьютеры. Ещё до ChatGPT чат-боты были близки к прохождению теста Тьюринга в общепринятом понимании, любой, кто использовал чат бота для общения с банком, подтвердит. Но Тьюринг не увидел бы в чат-боте искусственного разума, равного человеческому.
Чат-бот – это одноцелевой инструмент, а не интеллект. Интеллект человеческого уровня требует способности выходить за рамки параметров, которые его формируют, по собственной воле. ChatGPT очень хорошо имитирует образец человеческого языка, но и попугай тоже, а ведь никто не станет утверждать, что попугай понимает значение слов, которые повторяет.
Прохождение ChatGPT теста Тьюринга не значит, что ChatGPT столь же умён, как и человек. Это не так. Всё это значит, что тест Тьюринга не является действительным тестом искусственного интеллекта.
ChatGPT не может ничему научить себя, он может учиться только тому, что направляют ему люди для обучения
(Изображение предоставлено: Крис Мерфи)
На этой неделе сенатор США из Коннектикута, Крис Мерфи, заявил в западной социальной сети, что ChatGPT выучил химию самостоятельно, без подсказок от своих создателей. Чего сенатор Мерфи не знает, что ChatGPT в том виде, в каком мы его знаем, этого не может.
Чтобы вы понимали, если ChatGPT или любая другая система GAN искала и узнавала что-то по собственной инициативе, то мы бы перешли в постчеловеческий мир искусственного интеллекта, поскольку демонстрация независимой инициативы, несомненно, стала бы маркером интеллекта действительно человеческого уровня.
Но если разработчик заставляет бота изучить что-то новое, а тот выполняет просьбу, это не делает бота умным.
Делать то, что вам говорят, и делать что-то по собственной воле, может показаться одинаковым для стороннего наблюдателя, но это две совершенно разные вещи. Люди интуитивно понимают это, но ChatGPT может объяснить нам эту разницу только в том случае, если ему скормить философские тексты, которые обсуждают проблемы свободы воли. Если его не накормить Платоном, Аристотелем или Ницше, он не сможет прийти к идее свободы воли. Он даже не узнает, что такая вещь существует, если ему об этом не сказать.
Есть причины для беспокойства с ChatGPT, но он не становится «умным».
Некоторое время мы обсуждали проблемы ChatGPT, в основном они сводились к тому, что он не может понять, что говорит, а потому выдаёт не достоверную информацию, плагиат и другие ошибки, как факты.
Существует более широкая проблема в том, что ChatGPT уже рассматривают как замену людей-сотрудников, поскольку похоже, что ChatGPT (и Stable Diffusion, как и другие генеративные ИИ) могут делать то, что люди, только быстрее, проще и дешевле. Это мы обсудим в другой раз, но социальные последствия ChatGPT, вероятно, представляют наибольшую опасность здесь, никакого SkyNet не будет.
ChatGPT, по сути своей, представляет собой систему подключенных цифровых узлов, каждый из которых имеет средние значения, которые выдают логический результат на основе входных данных. Это не мысль, а буквально просто математика, которую люди запрограммировали в машину. Это может выглядеть мощно, но человеческий разум, создавший его, и есть настоящий разум, вы не должны путать эту информацию.