Немного моих размышлений про будущее ИИ как технологии, а не философии.
Как водится, когда речь о размышлениях — буду сначала вводить тезисы, а потом, синтез.
Тезис первый
Хоть сам и не пользуюсь таким инструментом, как Cursor из третьих рук я узнал, что там не просто внутри нейронка, а целый их ансамбль. Более того, что главное, там есть автовыбор того, какая именно БЯМ (большая языковая модель) будет отвечать за конкретный запрос. И вот этот момент меня заинтересовал. Я задумался, как именно это может быть реализовано. Первая мысль, как самая очевидная была в том, что внутри помимо больших моделей, есть и маленькая, единственная функция которой (а может и не единственная, но, значит, основная) — классифицировать запрос (окей, промпт) по тому, какая из больших моделей возьмёт работу на себя.
Мысль эта мне показалась немного диковатой, т.к. показалось, что это несколько пушкой по воробьям, и подумал, что может есть другое, более классическое, алгоритмическое решение. Думал-думал, ничего хорошего в голову не пришло. Поэтому всё же взял за рабочую гипотезу, что таки да, классифицирует маленькая и дешевая моделька. Маленькая и дешёвая да, но точно не локальная. Ведь даже для маленьких моделек нужны определённые мощности, которые есть далеко не у всех.
И вот здесь-то мысль и полетела дальше! Представилось что в будущем всё больше и больше «классические» алгоритмические задачи будут «закрывать» нейронками там где надо и не надо. Чем-то напоминает ситуацию в электронике, когда экономически часто более целесообразно не придумывать схему на элементарных радиодеталях, а воткнуть просто унифицированный микроконтроллер, который с правильной прошивкой заменяет целую кучку рассыпухи.
Но продолжение мысли пока попридержу. А пока...
Тезис второй
Я человек молодой, но более менее успел застать такой интересный переферийный девайс, как математический сопроцессор. Назначение устройства — позволять компьютеру выполнять операции над вещественными числами. Представляете, когда-то процессоры такие операции сами не умели выполнять! Но надо делать скидку на время и то, что такие операции были, наверное, не всем нужными, а скорее уделом специалистов, которые знали зачем им эта железка и целенаправленно её докупали. Сейчас любой, даже самый слабейший процессор имеет этот сопроцессор внутри себя.
Ничего не напоминает?
Нейронки и видеокарты!
А вот сейчас, соединим тезисы и придём к ...
Синтез
Нейронки, однозначно, вошли в нашу жизнь уже на долго.
Мы сейчас, по моей оценке, где-то между пиком и дном, причём ближе именно к пику. Затем, неизбежно будет дно разочарований. Но это не столь важно сейчас. Важнее — следующий этап. Выйдет ли технология на плато продуктивности? Скорее всего, да. Всё же, помимо того, что это «ыыы прикольная штука», это ещё и вещь со вполне очевидной прикладной пользой. Не буду вдаваться в подробности, но я имею в виду обработку естественного языка (классификация, суммаризация, генерация), а так же «нечёткие» алгоритмы, когда путь к решению не задан заранее (агенты и всё такое).
И по той причине, что мы ещё не на плато, есть ощущение некоего «дикого запада». Ещё не устаканились методы и подходы, практически ежедневно что-то появляется новое, а старое исчезает. Горизонт - буквально пара месяцев. И инструменты всё ещё крайне сырые. Под инструментами я имею в виду даже не программные инструменты, а то на чём это запускается. А запускаются нейронки на видеокартах! ВИДЕОкарты, Карл! Лично мне это выглядит несколько костыльным. Причём даже мощные профессиональные решения типа A100, H100 за миллионы рублей это по сути именно что видеокарты, хоть и без видеовыходов. Даже у криптовалют когда они были на хайпе и майнились на тех же несчастных видеокартах достаточно быстро появились специализированные решения в виде айсиков. Ждут ли нас специализированные решения для задач ИИ? Конечно. Даже более того, они уже есть. У того же Huawei. Устройства, которые заточены только для нейронок и никак не способные в графику. И это, ИМХО, правильный путь, туда индустрия и пойдёт.
Но это, опять таки, всё ещё настоящее. А что там в будущем?
А в будущем, думаю, нас ждёт то, что специализированные устройства для инференса (запуска готовых моделей, грубо говоря) буду встроены непосредственно во все потребительские компьютеры и даже носимую технику, типа телефонов. Ровно так же, как было с математическими сопроцессорами, которые начинали отдельным устройством, а сейчас уже давно — просто небольшая часть на кристалле процессора. А применение им вижу как раз таки в том, чтобы там постоянно сидела небольшая (ну небольшая для того, будущего времени, для нас настоящих, скорее всего, весьма большая) моделька, к которой по вполне стандартизированным API ОС будет обращаться прикладной софт, чтобы выполнять какие-то свои прикладные задачи. Типа той, про которую я говорил в самом начале, по классификации того, в какую большую модель пойдёт запрос пользователя. Более того, кажется, что со временем это станет настолько общим местом, что многий софт и не запустится на железе без встроенного «интеллектуального сопроцессора». Как сейчас не запустится многий софт без, даже не математического сопроцессора (где вы найдете процессор без него?), а, например, каких нибудь SSE2 инструкций (я, честно говоря, не очень знаю зачем они, но, подозреваю, без них многое не заработает). А значит в этом самом будущем эти «интеллектуальные сопроцессоры» будут просто базовой частью любой ЭВМ (ну нравится мне эта аббревиатура).
Да, можно возразить, что никак физически невозможно впихнуть такую вычислительную мощь в маленький кристалл на плате ноутбука, а, тем более, телефона. На это я отвечу просто: не знаю. Может быть и невозможно и такого не будет. Но ведь когда-то казалось невозможным что компьютер не будет занимать несколько комнат, а умещаться в кармане джинс каждого человека! Причём, тот что в джинсах, ещё и на много порядков будет мощнее! Так что я бы ничего не исключал.
А как вы думаете?