Почему Chat GPT 5 заставила нас вспомнить о грядущем крахе ИИ-пузыря

Open AI выкатила ChatGPT 5 с большой помпой, однако при ближайшем рассмотрении модель претерпела косметические изменения, а ее выход происходит на фоне новостей о поиске Open AI дополнительного финансирования. Вместе с техноблогером Маркусом Хадчинсоном разбираемся, почему происходящее может быть признаком приближения краха ИИ-пузыря.


Прочли, что Open AI «может достигнуть оценки в $500 млрд» и даже превзойти при этом SpaceX (компания, между прочим, владеющая чем-то более ощутимым, чем компьютерный код), которая стоит «всего» $400.

И подумали: вот это ИИ-пузырь раздувается, того и гляди рванет.

Ведь что такое рыночная оценка компании инвесторами? Это некие умозрительные прикидки ее бизнес-перспектив на основе субъективной оценки текущей рыночной конъюнктуры, которая ложится в основу расчета суммы инвестиций. При этом переоценка стартапу может выйти боком: в один прекрасный момент настанет пора платить по счетам и возвращать инвестиции, и, если компания фактически не вырастет до определенных норм прибыли, неприятности будут у всех (см. сериал «Силиконовую долина», там про это подробно и с примерами) – в особо критичных случаях может рухнуть весь рынок целиком (пресловутый крах докомов – самый известный пример).

А в том, что Open AI не вырастет до таких масштабов, мы уверены на 99,9%. Все потому, что, кажется, пчелы начинают что-то подозревать.

Как раз на днях наткнулись на очередной алармический лонгрид техноблогера Маркуса Хадчинсона, в котором он подробно (тыщ на 50 знаков) объясняет, почему ажиотаж вокруг ИИ его одновременно бесит и тревожит. Главный аргумент Маркуса мы уже приводили не раз: все, на чем держится бизнес ИИ-компаний – это самопиар и медийная шумиха, подогреваемая невежеством масс и фантастическими обещаниями. Нейроскептик напоминает, что капитализация компании и объемы инвестиций не имеют ничего общего с реальной ценностью ее активов и радужностью перспектив. Все, что ИИ-стартапы могут предложить инвесторам – это туманные обещания выкатить AGI, который сможет превзойти интеллектом человека. При том, что сами они его разработать только надеются:

Компания Tesla смогла обеспечить приток инвестиций на протяжении более десяти лет, ежегодно заявляя, что уже в следующем году появится полностью автономное вождение. Крупные технологические компании могут легко добиться того же. «Теперь 90% нашего кода
— это искусственный интеллект», «Мы видим проблеск AGI», «Мы так беспокоимся, что наш сверхумный текстовый процессор станет разумным и убьет всех». Это всего лишь пустая болтовня, призванная удержать интерес инвесторов достаточно долго, чтобы иметь призрачный шанс найти путь к AGI. Притворяйтесь, пока не добьетесь успеха, но в масштабах всей отрасли.

Руководители стартапов, по сути, ничем не рискуют: гигантские бюджеты на исследование и разработку – мутная вода, из которой можно натаскать себе рыбы, «пока не началось»:

В случае неудачи они могут просто поискать какой-нибудь другой способ привязать всех к еще одной модели подписки с завышенной ценой. Но в то же время, почему бы не прикрепить надпись «powered by AI» к вашему туалетному ёршику и не привлечь несколько дополнительных клиентов от конкурентов? По сути, это то, что вы наблюдаете сейчас, когда каждая компания просто внедряет в свой рабочий процесс какого-нибудь непродуманного чат-бота LLM.

И, конечно же, есть откровенные мошенники. Люди, которые садятся на новейший рекламный поезд, пытаются позиционировать себя как провидцев в этой области, а затем забирают свою сумку с деньгами и уходят прямо перед тем, как все рухнет. Неудивительно, что половина влиятельных специалистов в области искусственного интеллекта ранее рекламировали NFT или пытались продать вам тостеры с блокчейном.

Маркус сообщает, что для него «канарейкой в шахте» в случае с недоверием к ИИ стала Apple – компания стоимостью 3 трлн, которая никогда не бросается со всех ног за модными технологиями, не подумав хорошенько, ведь ей есть, что терять:

Apple сперва начала изучать возможности LLM, проводить внутренние исследования и даже вела переговоры об инвестировании в OpenAI. Позже компания опубликовали два исследования, посвященных режиму рассуждения LLM. В обоих исследованиях утверждается, что LLM не рассуждают, а просто проводят статистическое сопоставление с образцом, которое они выдают за логическое обоснование. Без способности к истинному мышлению LLM никогда не станут AGI, что, по-видимому, является текущей публичной позицией Apple.

Далее Маркус разбивает все аргументы в пользу «интеллектуальности» больших языковых моделей и сравнение их способностей с человеческими:

Предоставление модели доступа ко всему Интернету и всем записанным человеческим знаниям, а затем проверка их с помощью теста, разработанного для людей — это, очевидно, просто дешевый трюк. Я тоже мог бы набрать 100% баллов на ЕГЭ, если бы вы позволили мне загуглить все ответы. Истинным показателем интеллекта и логического мышления ИИ должен быть не рефакторинг существующей информации, а способность создавать действительно новые работы. Если бы нейросети действительно могли думать, имея в своем распоряжении столько информации, сколько у них есть, то революционные открытия буквально посыпались бы на нас с неба. Но где они?»

По мнению Маркуса, одно из четких различий между истинным рассуждением и сопоставлением с образцом заключается в том, что происходит, когда вы закрываете доступ к новой информации. В качестве примера он приводит логическую задачку с волком, козлом и капустой, которых нужно перевезти через реку – ИИ, конечно, с легкостью ее решает – потому что ответ известен и есть в Интернете. Но стоит только заменить волка на льва, а капусту на сельдерей, как модель «слепнет» и начинает выдавать белиберду, тогда как для человека в условиях задачи, по сути, ничего не меняется, и он способен ее решить тем же способом. И все попытки разработчиков пофиксить подобные проблемы в рассуждениях – это встраивание в модель дополнительные подмодели для решения конкретных подзадач, пока они не «вскипятят океан» в попытках решить вопрос хотя бы близко к тому, как это сделал бы среднестатистический человек. И это невозможно изменить дальнейшими улучшениями моделей – это принцип их работы, они иначе не умеют.

На самом деле, все, что мы создали, — это бот, который почти идеально имитирует использование естественного языка человеком, а все остальное — это люди, которые просто проецируют на него другие человеческие качества. Проще говоря, «модели рассуждают логически» — это «смотрите, моя собака улыбается» в области технологий.

Лично я склоняюсь к мнению (и редакция с этим согласна), что LLMS как технология уже исчерпала себя. Модели быстро достигли предела, когда предоставление им большего количества данных, параметров и токенов перестало приводить к каким-либо заметным улучшениям.

Все, на чем держится ИИ-индустрия сейчас – это энтузиазм апологетов, и Маркус на корню срезает их аргументацию, просто… сравнив с наркоманами:

LLMS по своей сути воздействует на систему вознаграждения человеческого мозга. Позволяя людям быстро обобщать результаты работы других и манипулировать ими, LLMs дает такое же чувство достижения, какое можно было бы получить, выполняя работу самостоятельно, но без необходимости поднимать тяжести.

Интересно то, что исследования, в которых делается попытка измерить рост производительности за счет использования LLM, на самом деле показывают обратное. Все чувствуют себя более продуктивными, но данные показывают заметное снижение объективной производительности среди пользователей LLM. Моя очень ненаучная гипотеза заключается в том, что многие пользователи LLM просто-напросто одурманены дофамином. Эйфория, возникающая в результате того, что они считают, что их возможности теперь безграничны, затуманивает их суждения.

Так что Маркус советует всем нам последовать примеру Apple и не стремиться запрыгнуть в ИИ-поезд любой ценой, растеряв попутно остатки интеллекта, перепоручая нейросетям любой чих. 

Материал в оригинале и целиком можно прочесть здесь

Photo by Nahrizul Kadri on Unsplash

Комментарии 0