Главные тайны ИИ: что реально скрывают машины — вам это не понравится

An evil-looking Japanese vintage robot toy.

Вокруг искусственного интеллекта вращается масса слухов и мифов. ИИ прочно вошел в нашу жизнь, но есть несколько вещей, о которых редко говорят вслух — они способны полностью перевернуть ваше представление о возможностях и будущем умных машин.

Современный ИИ — просто машина для догадок

Fake AI search engine.

Скорее всего, вы не раз слышали совет «спроси ChatGPT», когда нужен быстрый ответ. Но это серьезное заблуждение — такие системы не думают и не рассуждают, как человек.

Большие языковые модели (LLM), вроде ChatGPT, не анализируют информацию в привычном смысле. Вместо этого они просто стараются угадать, какое слово поставить следующим, основываясь на вероятностях — вот и весь их «интеллект». Им скармливают терабайты текстов, чтобы они могли подбирать самые подходящие фразы, встречавшиеся в этих данных.

Другими словами, ИИ не задумывается над вашим вопросом и уж точно не понимает его смысла. Да, он может делать арифметику или собирать списки, но эти результаты — не проявление логики, а лишь холодный расчет вероятностей. Понимать и предсказывать — совершенно разные задачи.

Поэтому даже самые уверенные ответы ИИ порой оказываются абсурдными. Попросите чат-бота посчитать буквы «р» в слове «малина» — и получите странный результат. Или наткнитесь на безумный совет: смешать бытовые средства так, что образуется опасный газ. Не повторяйте это дома!

Качественные данные для обучения ИИ закончились

Image showing GeoCities Homepage on Internet Archive

Любая языковая модель ИИ строится на тех данных, которыми ее «кормят». Можно сколько угодно улучшать структуру моделей, но без свежей порции качественной информации толку не будет.

За пару лет разработчики скребли по дну интернета, чтобы найти все, что можно: огромные базы Common Crawl, статьи Википедии, электронные книги, исходники программ, тонны постов из соцсетей — ИИ уже «переварил» практически все доступное.

Можно наращивать мощности, строить дата-центры, но вот новых, по-настоящему интересных и полезных данных для обучения почти не осталось. Все чаще говорят: машины достигают своего естественного потолка.

Чтобы хоть как-то выкрутиться, разработчики, как Frontier Labs AI, начали заставлять сами ИИ придумывать себе новые тренировочные данные. По сути, это как делать копию с копии: с каждым разом качество падает. Если тренировать модель на таком «синтетическом» материале, рискуем получить «интеллектуальный коллапс» — ИИ просто перестанет соображать.

«Вайб-кодинг»: громкое слово, мало пользы

A robot hand and a human hand typing together on a laptop keyboard, with coding symbols and a blurred code background.

В IT-среде много обсуждают «вайб-кодинг»: пользователь просто копирует код, который написал ИИ, не особо понимая, как это работает. Для учебных задач и домашних проектов — нормально: например, подключить E-Ink дисплей к Arduino по подсказке ИИ выйдет гораздо проще, чем самому изучать все нюансы Python или C/C++.

Но как только речь заходит о серьезной разработке, автоматически генерировать код — опасная затея. Помощники в IDE действительно ускоряют рутинную работу, но законченного и надежного продукта сам ИИ не создаст.

A robot dictates computer code to a human being seated at a computer.

ИИ — потрясающий помощник, но запускать продукт я бы ему не доверил

ИИ помогает писать код словно идеальный стажер: быстро, четко, но без вашего контроля и тестирования выпускать такой софт рискованно.

Даже если ИИ ошибается лишь в 1% случаев, для программиста это катастрофа — ведь одна ошибка из ста может стоить всей работы! Человек хотя бы понимает, что делает, и может найти источник сбоя, а машине все равно.

Ошибка на раннем этапе может обернуться большими проблемами в будущем. Исправить-то можно — но пытаться залатать фундамент, когда дом уже построен, согласитесь, затея сомнительная.

Вот почему не стоит верить сказкам, что можно создать гениальное приложение без единого навыка в коде — и сразу разбогатеть.

Вы сами «подкормировали» эти ИИ — даже не зная об этом!

Sony A6500 mirrorless camera with a SmallRig cage.

С большой вероятностью ваш контент тоже оказался в обучающих базах ИИ — даже если вы об этом ни разу не думали. Посты в соцсетях, комментарии, личные фото или школьные сочинения, случайно попавшие в интернет — всё это использовалось для тренировки моделей.


Подпишитесь на рассылку — расскажу без прикрас, как устроен ИИ!

Речь не только о текстах. Фотографии, даже с пометкой «не использовать», почти наверняка попадали в тренировочные выборки. Старые рисунки, музыка, любой цифровой след — всё это корм для ИИ.

Писали когда-то open source программы? Делились научными статьями, книгами, фильмами? Их цифровые копии с большой долей вероятности тоже пошли в обучение моделей.

Думаете, я сгущаю краски? Просто представьте: почему, например, ChatGPT без проблем копирует стиль Studio Ghibli, хотя создатели официально не разрешали этого делать? Можете не ждать ни благодарности, ни гонорара.

Возможно, после прочитанного я покажусь вам ворчуном. Но если бы я ненавидел ИИ, разве радовался бы, что он помогает распознавать голоса птиц во время прогулки? Не думаю!

Если вам понравилась эта статья, подпишитесь, чтобы не пропустить еще много полезных статей!

Премиум подписка — это доступ к эксклюзивным материалам, чтение канала без рекламы, возможность предлагать темы для статей и даже заказывать индивидуальные обзоры/исследования по своим запросам!

Подробнее о том, какие преимущества вы получите с премиум подпиской, можно узнать здесь

Также подписывайтесь на нас в:

Алекс Бежбакин
Оцените автора
Добавить комментарий