ChatGPT прошел тест Тьюринга, и если вы напуганы, вы не одиноки

Дебаты о последствиях ChatGPT продолжаются.

Несмотря на только что запущенный ChatGPT-4, OpenAI уже работают над пятой итерацией чрезвычайно популярного чат-приложения GPT-5. Согласно новому отчету BGR, мы можем увидеть крупное обновление уже в конце года.

Одна веха, которая может быть достигнута в следующей итерации, если это правда: способность быть неотличимым от человека в разговоре. И виною тому мы, которые, по сути, обучали этого чат-бота на основе искусственного интеллекта сотням тысяч, если не миллионам диалогов в день.

Пионер в области компьютеров и искусственного интеллекта, Алан Тьюринг, предложил тест для искусственного интеллекта: если вы можете говорить с компьютером, не понимая, что это не человек, можно сказать, что компьютер обладает искусственным интеллектом. С ChatGPT от OpenAI мы, безусловно, в значительной степени преодолели этот порог (иногда он ещё может быть шатким, но и люди не идеальны), а в повседневном использовании ChatGPT легко проходит тест.

Например, количество мошенничеств с вредоносными программами неуклонно растет с момента релиза технологии чат-ботов, а их быстрая интеграция в приложения ставит под сомнение проблемы конфиденциальности и сбора данных, не говоря уже о бурном плагиате. Но не только мы видим, что проблемы с ChatGPT развиваются быстро и агрессивно. Технические лидеры, а также эксперты в области искусственного интеллекта тоже бьют тревогу.

Развитие ИИ нужно остановить

Институт жизни будущего (FLI), организация, которая занимается минимизацией рисков и злоупотребления новыми технологиями, опубликовала открытое письмо с призывом к лабораториям и компаниям искусственного интеллекта немедленно прекратить работу над системами OpenAI после ChatGPT-4. Известные деятели, такие как соучредитель Apple Стив Возняк и соучредитель OpenAI Илон Маск, согласились с тем, что прогресс следует приостановить, чтобы люди могли пользоваться существующими системами, чтобы те приносили пользу всем.

В письме говорится: «К сожалению, такого уровня планирования и управления пока не существует, хотя в последние месяцы лаборатории искусственного интеллекта оказались вовлечены в неконтролируемую гонку по разработке и развертыванию всё более мощных цифровых умов, которые никто – даже их создатели – не способны до конца понять, предсказать или надежно контролировать».

Как мы видим, стремление компаний интегрировать и использовать новую технологию вызывает множество проблем. К ним относятся CNET, использующая ИИ для создания статей, которые нередко содержат неточности, а также информация о кредитных картах, которая может попадать в ChatGPT. Очень мало сделано для защиты конфиденциальности, прав интеллектуальной собственности цифровых художников или предотвращения утечки личной информации.

И пока мы не получим какого-либо контроля над этой развивающейся технологией и тем, как компании, использующие её, подходят к безопасности и ответственности, разработка должна быть приостановлена, пока мы не перекроем эти дыры.