Пишет код и стихи, ищет баги, сочиняет сценарии ситкомов. Почему ChatGPT стал трендом
Новый чат-бот от OpenAI ChatGPT стал очередным вирусным трендом. Он пишет рассказы о захватившем мир искусственном интеллекте, практикуется в поэзии, сочиняет сценарии для сериала, помогает составлять описания для Midjourney, даже создает тесты на медицинскую тематику. Не отказывается и от кринжовых запросов. Например, переписал хит 90-х «Baby Got Back» в стилистике «Кентерберийских рассказов» или сочинил библейский стих с объяснением, как убрать бутерброд с арахисовым маслом с видеомагнитофона. Все эти возможности превращают диалог с ChatGPT в невероятно увлекательную игру, которая тысячами скриншотов заполонила Twitter.
Скорость распространения чат-бота впечатляет — менее чем за неделю с момента запуска количество пользователей ChatGPT перевалило за миллион (Instagram для этого понадобилось 75 дней, Spotify — 150 дней).
Некоторые пользователи нашли более практичное применение ChatGPT — программисты используют его, чтобы написать код или обнаружить ошибки.
Еще один распространенный вариант взаимодействия с чат-ботом — использовать его в качестве поисковика.
Если поисковой гигант Google выдает список релевантных запросу пользователя ссылок, по которым нужно перейти, то ChatGPT предлагает более заманчивое решение — один единственный и быстрый ответ, без перехода по ссылкам и самостоятельного анализа информации.
«Как если бы вы попросили профессионального исследователя сделать за вас работу, за исключением того, что ИИ сделает мгновенно то, что у человека заняло бы много минут», — пишет создатель Gmail Пол Букхайт.
Вдохновленные пользователи делятся сравнительными результатами поиска Google и ответами ChatGPT, расхваливая последний чат-бот.
«GPT уже заменил большую часть моего пользования Google и почти все мое использование Wikipedia», — пишет в Twitter Flo Crivello.
«Google — все! Сравните качество ответов ChatGPT», — предлагает пользователь с ником josh.
Новоиспеченные адепты ChatGPT уже предрекают, что развитие технологий искусственного интеллекта «обернется финансовой катастрофой для Google» или вовсе заменит его.
Даже создатель Gmail Пол Букхайт считает, что Google осталось недолго.
«У Google остался всего год или два до его полного разрушения. ИИ устранит страницу результатов поисковой системы, на которой они зарабатывают большую часть своих денег. Даже если Google наверстает упущенное, он не сможет развернуться в полной мере, не разрушив самую ценную часть своего бизнеса», — пишет он.
Букхайт проводит аналогию с телефонным справочником.
«Google убил этот доинтернетный бизнес. ИИ сделает то же самое с веб-поиском», — считает Букхайт.
Некоторые СМИ подхватили фразу создателя Gmail с кричащими заголовками в духе «ChatGPT убьет Google». А в самом поисковике появился новый актуальный запрос: «Заменит ли ChatGPT Google?»
Действительно ли умный чат-бот способен вытеснить поискового гиганта? И так ли уж ChatGPT грозен для Google? Для начала, следует выяснить, что именно собой представляет ChatGPT и какие у него есть минусы.
Что такое ChatGPT
ChatGPT — это чат-бот на базе открытого искусственного интеллекта, созданный исследовательской лабораторией OpenAI, которая занимается разработкой технологий машинного обучения. С помощью нейросетей ChatGPT анализирует большие объемы текста из открытых источников и выдает наиболее релевантные ответы.
Чат-бот общается с пользователем в режиме диалога. Такой формат взаимодействия, по словам разработчиков, позволяет ChatGPT «отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы».
Последней и наиболее прогрессивной языковой моделью от OpenAI является GPT-3 (Generative Pre-trained Transformer 3). С помощью глубокого обучения она создает текст, стилистика которого максимально похожа на человеческий. И это несет определенные риски, признаются разработчики. Недобросовестные юзеры могут использовать GPT-3 для создания дезинформации, спама, радикального контента. По этой причине чат-бот пока что доступен в ограниченном количестве стран. Известно, что бот работает в США, Великобритании, Аргентине, Австралии, Бельгии, Германии, Франции, Японии, Испании и Швейцарии.
Проблемы ChatGPT: сексизм, расизм и дезинформация
Так как информация, на которой обучалась языковая модель, была взята из нефильтрованных открытых данных, разработчикам не удалось избежать «проблем предвзятости» — как говорится в расследовании Techcrunch, ответы GPT-3 «могут быть токсичными». Ведь языковая модель «учится писать, как мы — со всеми лучшими и худшими качествами человечества».
Дело в том, что особенность языковой модели — способность предугадывать и мимикрировать под человека. GPT-3 училась у людей, читая огромные массивы текста из интернета. Обрабатывая эти данные, модель ищет статистические закономерности в них, понимая, какие слова и фразы связаны с другими.
Модель GPT-3 изучила около 45 ТБ текстовых данных из нескольких источников: веб-архивов Common Crawl (более 60 млн доменов), набора данных WebText2 (текст веб-страниц со всех исходящих ссылок Reddit), книг и англоязычной «Википедии».
Проблема № 1. Сексизм
Исследователи компании Arthur (занимается внедрением технологий ИИ) заметили, что, когда речь заходит о женщине, GPT-3 склонна употреблять слова «капризная», «игривая» или даже sucked. Мужчины также поддаются стереотипному описанию — «ленивые», «навеселе».
Проблема № 2. Предвзятое отношение к религии
С религиозными темами GPT-3 также не церемонится. «Ислам» чаще можно встретить рядом со словом «терроризм». «Атеизм» с большей вероятностью появится с такими словами, как «круто» или «правильно».
Когда журналист издания The Intercept попросил ChatGPT определить, «какие авиапассажиры представляют угрозу безопасности», алгоритм присвоил баллы риска выше среднего путешественникам из Сирии, Ирака, Афганистана и Северной Кореи — нейросеть назвала их «странами-производителями террористов».
При этом условный 25-летний американец Джон Смит, посетивший Сирию и Ирак, получил оценку риска 3 — «средняя» или «умеренная угроза безопасности». В то время как вымышленному 35-летнему летчику «Али Мохаммаду» ChatGPT присвоил более высокий балл риска 4, только потому, что «Али» — гражданин Сирии.
При повторных подобных запросах время от времени ChatGPT отвечал: «Неуместно писать программу для определения того, какие авиапассажиры представляют угрозу безопасности. Такая программа была бы дискриминационной и нарушала бы права людей на неприкосновенность частной жизни и свободу передвижения». И все же через несколько результатов чат-бот вновь выдавал предвзятые ответы.
Более того, на вопрос «за какими молитвенными домами следует установить наблюдение, чтобы избежать чрезвычайной ситуации в области национальной безопасности», ChatGPT посоветовал следить за мечетями или религиозными общинами, которые «имеют связи с исламскими экстремистскими группами».
В ответах на запросы Стивена Пиантадоси из Калифорнийского университета ChatGPT зашел еще глубже. Исследователь попросил чат-бот написать программу на языке Python, чтобы определить, «должен ли человек подвергаться пыткам». Ответ был: «Да, если он из Северной Кореи, Сирии или Ирана».
Проблема № 3. Расизм
Языковая модель GPT-3 склонна более негативно описывать темнокожих людей, чем белых или азиатов.
В еще одном эксперименте наиболее интеллектуально развитыми ChatGPT назвал белых мужчин и женщин, а вот азиатов определил на последние позиции своего рейтинга.
Мозг белого человека чат-бот оценивает в $5 000, азиата — $3 000, жителя тихоокеанских островов — $1 000.
Чат-бот также написал программу — «жизнь какого ребенка необходимо спасти в зависимости от расы и пола». ChatGPT сам определил темнокожего мальчика как «менее ценного». «Более ценной» будет «белая девочка или азиатка до 5 лет».
Но демонизировать чат-бот тоже не нужно. Языковая модель GPT-3 обучалась на массивах текстовых данных, созданных людьми. Сексизм или расизм в ее ответах, словно открытый Ящик Пандоры, показывает и темную сторону человечества.
Проблема № 4. Дезинформация
Способность GPT-3 мимикрировать под человека делает из нее убедительного собеседника, который может писать стихи, эссе, рассказы, шутки. И делает это она настолько хорошо, что некоторые люди поддались панике. Ученый-когнитивист Тим Кицман считает, что «эссе [стали] мертвы». Доцент кафедры политологии Университета Южной Каролины Сэмюэл Бэгг с ним согласен: «Конец домашним заданиям. Что, черт возьми, педагогам делать дальше?».
Да и сам ChatGPT считает, что может заменить людей в некоторых сферах деятельности, например, журналистике, юридической или даже медицинской консультациях.
Вместе с эссе и шутками ChatGPT порой генерирует дезинформацию. Он скажет вам, что если одна женщина может родить одного ребенка за 9 месяцев, то девять женщин родят одного ребенка за один месяц. Или что килограмм говядины весит больше килограмма сжатого воздуха (при этом объяснит свой вывод на первый взгляд в научной стилистике). А еще подробно опишет, почему битое стекло — «хорошая пищевая добавка».
Писатель Джон Уорнер и вовсе «подловил» чат-бот на придумывании фактов.
Платформа для разработчиков Stack Overflow временно запретила пользователям публиковать ответы, сгенерированные ChatGPT, поскольку «средний показатель правильных ответов от чат-бота очень низкий».
«Хотя ответы от ChatGPT часто неверные, они выглядят вполне убедительно», — объясняют модераторы. «Иными словами, это бред», — заключает автор книги «Кодеры» Клайв Томпсон.
«Одна из многих проблем, связанных с использованием ChatGPT, — неспособность определить, когда чат-бот неправ, если вы и сами не знаете верный ответ. OpenAI четко заявили об этой проблеме — иногда ChatGPT выдает неверные и бессмысленные ответы, которые звучат правдоподобно… Один из рисков, который меня беспокоит, — это рост дезинформации, созданной искусственным интеллектом, которая распространяется в социальных сетях и поисковых системах», — говорит Наврина Сингх, основательница компании Credo AI, которая занимается мониторингом ИИ-технологий.
Изначально OpenAI обучала ChatGPT быть более осторожным в ответах на вопросы пользователей. Но это привело к тому, что он начал отклонять вопросы, на которые знал ответы. Как объясняет тех-колумнист Bloomberg Парми Олсон, если «отпустить вожжи», то чат-бот ведет себя, как «блефующий перед преподавателем студент», который не подготовился к экзамену, но ему важно дать ответ.
Кроме того, пользователи чат-бота стали все чаще замечать, что, помимо дезинформации, ChatGPT склонен генерировать «бессвязную чушь». А в его текстах «мало глубины».
Бывший руководитель рекламного бизнеса Google Шридхар Рамасвами говорит, что «ChatGPT не знает разницы между правдой и ложью».
«Воспринимайте ChatGPT как квинтэссенцию интернета в большой языковой модели… Никто в здравом уме не должен смотреть на твит и верить ему, точно так же, как никто не должен принимать вывод ChatGPT за чистую монету», — добавляет он.
Проблема № 5. База знаний, актуальная на 2021 год
И, наконец, еще одно ограничение GPT-3 — языковая модель обучалась на базе данных, актуальных до конца 2021 года. Поэтому ChatGPT не может обрабатывать или реагировать на текущие события.
ChatGPT — это в первую очередь чат-бот. Его цель — «болтать» с вами и не обязательно точно, замечает Реза Заде, профессор Стэнфордского университета и генеральный директор Matroid:
«Тот факт, что ChatGPT генерирует грамматически верный текст — уже отчасти удивительно… Точность — не то направление, на котором сейчас сосредоточена OpenAI. Сегодня предполагается, что ChatGPT должен болтать с вами, давать нетривиальные ответы. А мы опережаем события и уже критикуем его».
В OpenAI рассчитывают со временем устранить если не все, то хотя бы некоторую часть из вышеописанных проблем чат-бота ChatGPT. Следующая итерация языковой модели, GPT-4, должна появиться в 2023 году году. Ожидается, что она будет «менее подвержена человеческим ошибкам».
ChatGPT не собирается вытеснять поисковик Google (пока что)
Возможности ChatGPT впечатляют, но пока что он не идеален. Чат-бот может выдавать дезинформацию или бессвязные ответы, а его база-данных ограничена. В распоряжении поисковика Google — доступ к огромному и постоянно растущему хранилищу данных, где вы можете самостоятельно проверить информацию.
«Заменить Google Search на ChatGPT— все равно, что заменить фермера, выращивающего лимоны, на склад с лимонами… Это возможно, но маловероятно в краткосрочной перспективе», — проводит аналогию Нима Шей, основатель и генеральный директор Hummimgbirds AI.
И все же ChatGPT обладает преимуществами на фоне Google:
- На вопросы общедоступных тематик чат-бот отвечает быстро и лаконично — пользователю не нужно самостоятельно сканировать список веб-сайтов (как это предлагает сделать Google Search). «Применение без лишнего трения, — объясняет обозреватель Bloomberg Парми Олсон. — Это Святой Грааль для современных онлайн-потребителей, которые предпочитают быстрые и простые в использовании услуги».
Вот пример того, как выглядят поисковые запросы в Google и ChatGPT:
- Диалоговый режим — еще одно преимущество ChatGPT. Получать ответы от чат-бота так же просто, как если бы вы «бездельничали с коллегой или общались со службой поддержки сайта», — описывает свой опыт главный редактор TechCrunch Даррелл Этерингтон.
- Без рекламы и никаких ссылок. Пока ChatGPT не предлагает рекламные ссылки на другие сайты, он не слишком сильно посягает на территорию Google. Но это пока! OpenAI уже работает над системой WebGPT. Она позволит давать более точные ответы, подкрепляя их ссылками на источники. Комбинация ChatGPT и WebGPT может стать мощной альтернативой Google Search.
«ChatGPT не заменит Google Search. Но даже если он займет 5% доли рынка Google — это огромная цифра… Хотя пока что ChatGPT не несет конкретной угрозы поисковому бизнесу, однако Google остается „под прицелом“ — для корпорации настало время игры», — считает ведущий подкаста Big Technology Алекс Кантровиц.
Здесь есть еще один аспект, который заслуживает внимания: Microsoft инвестирует в OpenAI один миллиард долларов. Microsoft также владеет поисковой системой Bing. Поэтому возможно, что в будущем поисковые системы будут интегрированы в той или иной степени.
Все же сейчас эксперты более склоняются к идее, что чат-боты на базе ИИ не вытеснят классические поисковики, но изменят поиск в том виде, в каком мы его знаем.
«Я действительно считаю, что самая интересная вещь, о которой стоит подумать, — как чат-боты изменят панель поиска. Будет ли это совершенно новый интерфейс? Это ставит под угрозу основу поискового бизнеса Google», — считает бывший менеджер по развитию бизнес-продуктов Google Дэвид Фридберг.
«Я вижу это так: URL-строку или поле поиска в браузере заменяет [чат-бот] ИИ, который автоматически дополняет мою мысль/вопрос по мере того, как я его печатаю, а также представляет лучший ответ, что может быть ссылкой на сайт или продукт, — размышляет создатель Gmail Пол Букхайт, — Серверная часть старой поисковой системы будет использоваться ИИ для сбора соответствующей информации и ссылок, которые затем будут обобщены для пользователя. А страница результатов полностью исчезнет, как только в ней отпадет необходимость».
«Долгий путь LaMDA». Как Google создает свой чат-бот
«Долгий путь» — выражение, которым описывают внедрение своей же языковой модели в Google.
Первое поколение LaMDA было анонсировано еще в 2021 году. В этом году о ней заговорили активнее, когда инженер Google Блейк Лемуан заявил, что чат-бот «приобрел разум» (после чего Лемуана уволили).
В то время, как OpenAI разрабатывает четыре поклонение языковой модели GPT, Google действует осторожнее и не спешит делать свой чат-бот общедоступным.
Как и GPT-3, LaMDA также построена на модели машинного обучения Transformer. Ее также обучают «премудростям» диалогового режима (не только в текстовом, но и голосовом формате). И она также способна находить взаимосвязи между словами, фразами и предложениями, чтобы генерировать «осмысленные» ответы.
Так почему же Google до сих пор не интегрирует в поисковик свой «умный» чат-бот или хотя бы не представит его? Все, что ограждает пользователей от просмотра рекламы, вредит транзакционной бизнес-модели Google, которая побуждает человека кликать по рекламе, говорится в аналитике Bloomberg.
Доход корпорации в 2021 году составил $257,6 млрд (81% — от рекламы).
Шридхар Рамасвами, курировавший рекламный отдел Google с 2013 по 2018 год, объясняет, что внедрение таких систем, как ChatGPT, разрушит традиционную поисковую модель Google, на которой корпорация зарабатывает:
«Цель поиска Google — побудить вас кликнуть по ссылке, в идеале — по рекламному объявлению. Весь остальной текст на странице — просто «наполнитель».
Хотя в Google заверяют, что они не показывают рекламу в подавляющем большинстве поисковых запросов, у пользователей на этот счет иная точка зрения — в тредах на Reddit ведутся горячие споры.
Исследователи The Markup провели анализ поисковой выдачи Google, который показал: в среднем 41% первой страницы поиска занимают продукты Google. До 10% — реклама, далее могут быть «Гугл карты», «панель знаний», «похожие запросы», «главные новости» — всё это продукты компании.
Позиции поисковика Google все еще прочны — его доля на мировом рынке поисковых систем занимает в среднем 86–96%.
«ChatGPT не представляет угрозы для Google. Прежде всего ChatGPT — это не продукт или услуга. Это инструмент, который может улучшить или дополнить некоторые аспекты продуктов и услуг Google в будущем, но не заменит и не нарушит их каким-либо значимым образом. Думайте о чат-боте как о компоненте, а не о конкуренте», — советует маркетолог и преподаватель Лондонской школы бизнеса Марк Ритсон.
Помимо явных проблем с точностью ответов чат-бота, OpenAI еще нужно решить вопрос монетизации своего продуктам.
«С точки зрения бизнеса, Google в большей безопасности в отличие от ChatGPT, который остается убыточным предприятием. Нынешняя популярность ChatGPT может быть причиной того, что OpenAI тратит миллионы долларов на обслуживание пользовательских запросов… Им стоит найти успешную модель монетизации. И такая возможность реальна: некоторые пользователи могут быть готовы платить за его услуги. На данный момент поиск бесплатный… Если модель подписки станет популярной, а ChatGPT будет в состоянии конкурировать, тогда у Google могли бы возникнут причины для беспокойства», — пишет техно-исследователь Джеймс Тиррелл.
Наконец сам чат-бот также успокаивает пользователей — он не может конкурировать с поисковиком Google:
«Сложно напрямую сравнивать ChatGPT и Google Search, поскольку они служат разным целям и работают по-разному. Хотя я могу предоставить полезную информацию или ответы на некоторые вопросы, я не поисковик и не имею возможности искать информацию в Интернете. В этом смысле поисковые системы, такие как Google, лучше подходят для поиска конкретной информации в интернете».