Догонит ли YandexGPT ChatGPT?
ИИ: Гонка за лидером (ChatGPT, GPT-4, LLaMA, Bard, Yandex GPT и др.)
В гостях:
  • Радослав Нейчев
    Заместитель заведующего кафедры машинного обучения МФТИ, разработчик Яндекса
    Автор и преподаватель курсов по машинному обучению в МФТИ и магистерской программы "Современные методы искусственного интеллекта", запущенной в партнерстве с Яндексом, составил инструкцию по тому, как учиться в мире, где объём информации экспоненциально растёт, а знания быстро устаревают.
Разговор с Радославом Нейчевым, заместителем заведующего кафедры машинного обучения МФТИ, разработчиком Яндекса, о расцвете больших лингвистических моделей (ЛЛМ / LLM/ Large Linguistic Models), Chat GPT и его предшественнике Instruct GPT; текущем лидере GPT-4; влиянии искусственного интеллекта (ИИ / AI) на рынок труда; галлюцинациях ИИ; бенчмарки оценки производительности чат-ботов; подготовка инженерных кадров в области IT; курсы в области машинного обучения; профильная магистратура МФТИ; использование англоязычных терминов; могут ли чат-боты программировать; ситуация на рынке труда для программистов; как OpenAI обошел Google и Meta; Ernie bot и китайские наработки, проблемы китайцев; open sourse против монополий; как в открытый доступ утекла LLaMA от Meta и кто от этого выиграл; Yandex GPT; апокалиптические прогнозы в отношении ИИ, когда ИИ догонит уровень человеческого разума; регулирование ИИ.

Таймкоды:
00:00 – Трейлер
02:03 – Биография
02:40 – Работа в Яндексе
03:18 – Хайп вокруг ЛЛМ
05:34 – Влияние ИИ (AI) на рынок труда
09:43 – ChatGPT, GPT 4
12:10 – Галюцинации ИИ
14:19 – Бенчмарки производительности
18:28 – Т9
19:12 – Подготовка IT кадров
20:30 – Курсы по ИИ
21:30 – Магистратура МФТИ
26:19 – Онлайн-академия
29:17 – Англоязычные термины
31:48 – Рынок труд IT
33:45 – ЛЛМ (LLM)
34:41 – Как OpenAI обошел Google и Meta
37:34 – Ernie bot и китайские наработки
41:56 – Цена входа на рынок LLM
44:05 – Как в открытый доступ утекла LLaMA от Meta и кто от этого выиграл?
46:56 – Yandex GPT
50:20 – Апокалиптические прогнозы в отношении ИИ, когда ИИ догонит уровень человеческого разума 53:34 – Могут ли чат-боты программировать
57:00 – Регулирование ИИ
59:00 – Личные увлечения

Ведущий - Александр Надмитов, управляющий партнер юридической фирмы "Надмитов, Иванов и Партнеры" (www.nplaw.ru), доцент факультета права НИУ ВШЭ
#мфти, #исскуственныйинтелект, #ChatGPT, #openai

АН: Добрый день дамы и господа! Меня зовут Александр Надмитов и я рад приветствовать Вас сегодня на нашем канале Nadmitov Live.
Сегодня у нас в гостях Радослав Нейчев, один из молодых перспективных российских специалистов в области машинного обучения искусственного интеллекта. Радослав, добро пожаловать в нашу студию! Радослав окончил МФТИ, а также является заместителем заведующего кафедры машинного обучения МФТИ и также работает в Яндексе. Радослав, расскажи откуда ты родом? Что закончил? Откуда у тебя такая интересная фамилия?

РН: Закончил МФТИ в принципе и бакалавриат, и магистратуру, и аспирантуру. Практически вот надо сейчас диссер защитить ближайшей осенью. А фамилия от отца. У меня отец родом из Болгарии, в принципе не секрет. Приехал когда-то в Россию учиться на инженера по атомной энергетике, там и познакомился с моей мамой. Вот теперь и я живу здесь. Знаю всего лишь двух Радославов в Москве, включая себя. Второй шеф-повар в замечательном болгарском ресторане.

АН: Понятно. Надеюсь вас не путают.

РН: Вряд ли.

АН: Расскажи, чем ты сейчас занимаешься в Яндексе?

РН: Занимаюсь по сути наукоемкими задачами, которые актуальны с точки зрения улучшения опыта и вообще восприятия Яндекса как пользователями, так и внутренними сотрудниками. Короче, как мне нравится говорить: «Причиняю людям добро». Потому что иногда не совсем понятно, что можно сделать лучше, вот ровно в этом заключается задача моя и нашей команды. Увидеть, что где-то можно сделать лучше, но на это нет сейчас какого-то ресурса внутри, предложить сделать какой-то МВП, показать, что можно сделать лучше, отгрузить, сделать так, чтобы все были немножко более счастливы.

АН: Что ж, МФТИ пользуется славой одного ведущих российских центров в области искусственного интеллекта. Расскажи, сейчас искусственный интеллект, он как бы на слуху, потому что во многом благодаря этим лингвистическим моделям, в том числе ChatGPT, GPT4. Как ты можешь прокомментировать, с чем связан этот хайп вокруг лингвистических моделей, также чатов, которые генерят различные картинки, изображения, видео и т.д.?

РН: Хайп на самом деле обусловлен тем, что количество задач, которые раньше были неразрешимы, а за последний год стали разрешимы, ну чуть больше – за полтора, сильно больше единицы. С выходом чата GPT, почти год до него вышел InstractGPT, примерно тоже самое ну там не было маркетологов, которые распиарили бы его на весь мир, и он сидел там в области каких-то специалистов-гиков спокойненько работал. Сейчас люди могут решать огромное количество задач буквально по щелчку пальцев. Ну, например, чем мы пользуемся на повседневной основе. Моделька которая переписывает текст, исправляет там всякие ошибки, делая его более корректным лингвистически, синтаксически, особенно на английском языке. Потому что приходится и с англоязычными коллегами беседовать, а раньше это были какие-то проприетарные решения, которые можно было за деньги приобрести. Сейчас практически бесплатно мгновенно можно сделать это. Сервисов есть множество. Плюс можно генерировать какие-то тексты, списки. История про то как кто-то написал себе диплом, не стара, а вполне актуальна пока еще, что в принципе при написании каких-то работ обращаться к так каким-то моделям. Сгенерировать по введению абстракт, аннотацию, а потом его чуть-чуть переписать – сильно быстрее, чем писать все с нуля. Это я говорю исключительно про такую около академическую среду. Но в принципе пока что людям просто прикольно, что есть какая-то машинка, машинка именно игрушка, которая может что-то делать, что она раньше не могла. Про картинки это вообще отдельная тема. Потому что картинки генерировать… Я вообще рисовать не умею, мне это нужно. Сгенерировать красивые картинки за 30 секунд бесплатно можно достаточно неплохо. Я так, например, все наши курсы оформил, для них какие-то красивые картинки нарисовал. Теперь какие-то джуны-дизайнеры оказались под угрозой, мне кажется. Так что либо надо расти вверх, либо осваивать эти инструменты, либо искусственные интеллекты всех задавят.
АН: А кстати, что ты думаешь про будущее программистов? Есть такое мнение, что в будущем программисты не потребуются, потому что искусственный интеллект их полностью заменит. Многие программисты занимаются сейчас такими простыми достаточно задачами и именно по ним ударит развитие искусственного интеллекта. Что ты думаешь?

РН: Я думаю что в некотором смысле это правда. Вообще низкого уровня специалисты, те которые занимаются наиболее простой частью работы, они в первую очередь будут под угрозой, правда, я думаю, что это на горизонте пяти-семи-десяти лет и так далее, в зависимости от того как будет дальше развиваться, если не будет каких-то резких скачков. Типа если у нас ещё квантовые компьютеры сейчас ворвутся и скажут, всё ребят, теперь у нас 1000 кубитов, связанных с друг другом, спутанных, то понятия не имею что будет. Потому что эти две технологии вместе сопряженные дадут какие-то дичайшие результаты по идее. Ну здесь не только в программистах дело. На самом деле под угрозой почти все профессии низкоквалифицированные, причём в любой области. Ну например, кассиры. Они тоже могут оказаться под большой угрозой. В принципе уже есть куча магазинов без кассиров. Я даже не про кассы самообслуживания, а просто взял вышел, все нормально. Еще Amazon n-ое количество лет назад выкатил, ВкусВилл такую штуку в России тестировал. Это буквально рядом с нами. Тут разве что охранник понадобится, чтобы люди в масках не забегали, чего-то там не выносили. Потому что люди всегда разные. Таксистов тоже давно пророчат к исчезновению. Ну правда это зависит от страны, наверное, от регуляции. Потому что беспилотники уже ездят, теперь вопрос просто в удешевлении технологии. А мне кажется, если посмотреть на статистику, я вот её перед сегодняшней беседой не проверял, но мне казалось, одни из самых распространённых профессий, по крайней мере в России, это таксисты, кассиры и охранники. Два из трёх рискуют потеряться.

АН: А что насчёт охранников?

РН: Ну вот охранников… Пока у нас нет железных роботов, которые будут бить кого-то палкой. Вроде все нормально и хорошо.

АН: Мне кажется это просто вопрос времени. Можно к роботу-доставщику приделать дубинку и готовый уже охранник.
РН: Файзер. Чтобы стрелял и током бил. А программисты…На самом деле не только программисты, дизайнеры, юристы, кстати говоря, потому что автоматизировать анализ любого кейса, у нас же всё-таки есть законодательство, и можно либо по законам, либо по прецедентам, все равно есть какие-то факты, по ним строится какая-то формальная или квази-формальная система, из которой можно делать какие-то выводы. В принципе в Китае уже некоторые дела решаются с помощью методов искусственного интеллекта. Но после этого их как-то валидирует человек. То есть это уже происходит. Раз технологии уже используется, то вопрос дальше только роста когда это появится. Не знаю, лет 10 от текущего момента и мы увидим совершенно другие вещи. В принципе 10 лет назад было также. Кто бы мог подумать про беспилотники, про то что у нас в телефоне камера, там же не просто качественная оптика, там куча алгоритмов, которые улучшают фотографии, что камеры смогут так снимать. Переводчик – что практически можно сейчас в реальном времени говорить с человеком, вот на YouTube, например, на других сервисах (YouTube просто более популярен) можно сейчас в реалтайме переводить видео с другого языка. Ну, например, Яндекс это недавно выкатил. Можно видосики на китайском смотреть, и они в реалтайме переводятся на русский голосом. А это значит, что и переводчик можно такой сделать. Если бы мы с тобой говорили на разных языках, я на болгарском, ты на испанском, то мы бы в принципе могли друг другу понять.

АН: Я на бурятском.

РН: Хорошо.

АН: Интересно. Хорошо, что ты прошелся по юристам. Я тебя спросил про программистов, ты меня спросил про юристов. Потому что я сам юрист, преподаю правовое регулирование искусственного интеллекта. Кстати интересно, но в России уже искусственный интеллект достаточно активно применяется. Даже если вы возьмете штрафы, то в Москве, там же по сути уже идёт автоматическое принятие решений. То есть когда камера фиксирует нарушения правил, например, ты нарушил разметку или проехал не там, не на тот знак светофора или на запрещающий знак, то фактически автоматически оформляет административный протокол. Кроме того, к примеру, та же ФССП провела недавно эксперимент. У них там достаточно работа автоматизирована, то есть она автоматически получает постановление, исполнительный лист и сразу выпускает ряд документов, запросов и так далее. То есть здесь у нас лигалтех тоже активно работает, развивается. Слушай, но возвращаясь к ChatGPT, GPT 4, расскажи, я так понимаю, для специалистов в этой области их появление не стало неожиданностью?

РН: Для именно узких специалистов, специалистов в узкой области, да. Расскажу чуть-чуть историю, перед чат GPT был InstructGPT, который вышел весной 22-го года. Я сейчас не возьмусь сказать точный месяц. Он на протяжение весны и лета, и осени был доступен, а по сути InstructGPT это примерно тоже самое. Почему Instruct? Он обучен был работать с инструкциями. То есть не просто языковая модель, которая генерирует текст. Наверное в двух словах надо сказать для слушателей, что это такое. По сути все эти наши модели, если на пальцах, они просто умеют предсказывать следующее слово. Ну, например, мнемоническое правило из школы. Иван родил девчонку, велел тащить… пелёнку. Все понятно, какие падежи. И все эти языковые модели учатся предсказать следующее слово, ну прямые языковые модели. Потому что есть ещё пропущенные слова, которые заполняют, какое слово следующее и по сути, раньше это делалось точно также. С 2015 года минимум, потому что в 2015-м году было уже куча работ на эту тему достаточно простых, а на самом деле делалось достаточно раньше. А там ещё в девяностых были подобные модельки. Ну условно в 2017-м, 2018-м, 2019-м годах мы уже своим студентам, например, давали домашку: сделать небольшую языковую модельку, которая генерирует что-то в стиле поэзии Пушкина, Шекспира. Кто- то брал Маяковского, кто-то тексты Eminem. И у них неплохо получалось. Но когда модель просто генерирует какой-то поток мысли, в принципе красиво, прикольно, но толку с этого мало. Потом, во-первых, обнаружили что чем больше модель, тем лучше она умеет запоминать что-то о мире, а потом дообучили, то есть добавили в модели опыт не просто генерировать текст, а воспринимать сначала кусочек текста как запрос, как инструкцию (Instruct) и на него давать ответ. Например, какое население города Воронеж? И модель пытается у себя из головы как-то это вытащить. По факту она просто пытается предсказать тот текст, который будет наиболее правдоподобен при данном префиксе. И вот что-то предсказывает. Так как она видела это где-то тысячи раз на просторах интернета, всех тех данных на которых она обучалась, в среднем она неплохо запоминает. Но при этом, вот эта история с галлюцинациями, то есть модель говорит какой-то бред, причём очень уверенно тоже есть. И пока что мы все, как специалисты, боремся так или иначе, частично успешно, частично задача ещё не решена.
АН: Понятно. Я тут читал прогноз британских учёных о том, что вот эти ошибки, галлюцинации будут накапливаться. Потому что эти лингвистические модели, они могут учиться на этих же своих ошибках, и объемы будут расти, там свыше 20%. Как ты оцениваешь угрозу?

РН: Это прям актуальная очень проблема. Почему? Потому что не секрет, что все эти модельки учатся как? Собираем все данные до которых смогли добраться, и если у нас много денег и сил, то привлекаем еще каких-то редакторов, которые пишут редакторские тексты уникальные, где запрос-ответ, какая-то информация, но модель опять же обучается на информации в первую очередь из интернета в интернете куча всякого мусора. Там как бы сели копирайтеры, которые за символы написали очень много текста, из которого часть может быть неактуальной и вообще невалидной, но сейчас с помощью моделей генерирует, если какой-то бред там оказался, дальше он рискует попасть в обучающую выборку, ну и данная модель на него обусловится. Поэтому одна из основных задач, как раз таки fact checking. Это моё сейчас субъективное мнение. Что хорошо, чтобы модель всё-таки качественно умела опираться на данные из вне и приводить ссылки откуда она эту информацию взяла. Так некоторые решения уже умеют. Потому что тогда человек по крайней мере видит откуда это взято. И если это грубо говоря какое-нибудь официальное СМИ, государственное это одно, а если какое-нибудь ООО «Рога и копыта двадцать два водомения x,y,z», то наверно там что-нибудь не то напишут. Проблема есть и если об этой проблеме не задумываться, то потом влетит по лбу.

АН: Понятно. Та же проблема наверно у сайта Википедии? Ну там они как-то решают.

РН: Ну Википедия решается чем? Пока что люди с этим справляются. Наша команда аутсорсинга была поднята и в принципе пока работает. Хотя история про северную Ирландию кажется, боюсь наврать, там был целый кусок Википедии на определенном языке, где было куча статей написана…

АН: Уэльс, по-моему.

РН:Может быть. Которые были написаны просто по приколу, там был написан всякий бред, причём на языке чуть ли не на фиктивном. Просто кто-то там сидел и по приколу строчил. Так что там тоже есть проблемы относитесь пожалуйста ко всему не то что со скепсисом, а перепроверяйте что вы там читаете, где угодно.

АН: Да краткие азы компьютерной грамотности от Радослава Нейчева.

РН: Очевидные советы.

АН: Да, ну что касательно этих чат ботов, есть много спекуляции на счёт их мощности. Как вообще оценивается их производительность? Вот взять тот же ChatGPT.

РН: Производительность в плане способности решать задачи или скорости работы?

АН: Ну вот скажем, когда хвалили чат GPT, там была такая информация, что в него загрузили всего Шекспира, там он уже обучился китайскому языку. То есть он как бы так, чтобы поразить воображение потребителя, его скорость и так далее. Я так понимаю сейчас вышел вот этот, наиболее новая версия GPT4, которая уже серьёзно превосходит по скорости и ChatGPT и всех остальных конкурентов. Вот как оценивают производительность этих лингвистических моделей?

РН: Ну если говорить именно про качество ответов, есть куча benchmark, я даже не знаю, как это на русский сейчас переводится. Вот англицизмов в нашей области куча. Короче модельных задач, на которых проверяется качество работы и сравниваются между собой как раз-таки модели. Ну на них в принципе и сравнивают, плюс эти benchmark должны создаваться распределенными коллективным, потому что если компания А выкатила модель и выкатила benchmark, то есть некоторый шанс, что модель этой компании на этом benchmark будет сильно лучше всех остальных по понятным для всех причинам. На разных языках есть разные соревнования, грубо говоря где их сравнивают. Для русского языка много классных вещей, которые сделали не реклама, ребята как раз-таки из Aria, сберовская команда. То есть они очень сильно комитят open source, с точки зрения обработки современного языка NLP и большое за это им спасибо. Правда очень классно. В принципе количество людей, увлеченных NLP, за счет количества моделей open source возросло значительно. У меня многие студенты сидели и ковырялись с этими моделями. Так что, в принципе, open source эти открытые модельки очень хорошо. Если говорить про производительность, то GPT 4 он на самом деле более прожорливый, чем GPT 3 и 3.5, ChatGPTно он гораздо лучше решает задачи. Поэтому он стоит и денег больше. Там подписка другая и в принципе его нельзя грузить, я так понимаю, постоянно. То есть на счёт производительности, сколько времени и ресурсов он кушает понятия не имею, потому что мы до сих пор не знаем, что там под капотом. Но на счет производительности, что меня поразило до глубины души. Весной 23-го года, на всякий случай, есть же куча open source моделек, ну сначала от Meta, ныне запрещенной в России утекли в сеть веса LLaMA и на ней стали там всякие Alpaca и прочие модели Vicuna. Но во-первых их немножко так пожали до 4 Бит, привет тем, кто занимается в компьютерных науках. Вот у нас есть количество бит на число, грубо говоря 4 Бита, то есть четыре нолика и единички, чтобы закодировать. Ее, во-первых, туда пожали и смогли загнать в мобильник моделью на 7 миллиардов параметров, но просто к слову, наилучшая модель сота 2018 года, от которого область немножко перевернулась, которую в Google стали срочно впиливать в production, вкручивать, в ней было 30-40 параметров. Здесь 7 миллиардов. Ну просто, чтобы понимать, в 20 раз. Так вот ее умудрились пожать и запихнуть в мобильник, так что она работает плюс минус в реальном времени, то есть пишет со скорость человека. Вот с этого я был в диком шоке и в шоке до сих пор. Потому что это же замечательно. По факту если это не будет как-то заблокировано, зарегулировано мы имеем возможность на горизонте года-двух именно персонального помощника, который не где-то в облаке болтается и прямо в мобильнике работает, который может на какие-то вопросы отвечать и в интернете что-то поискать, и сформулировать и причём именно персональный. Вот короче? как раньше в фантастике был, условно говоря, Hal в фильме космическая Одиссея, ну и в книжке соответственно. Вот что-то такое можно получить у себя в кармане или на компе и это прям вау. Это маленькие модельки, они конечно намного глупее чем условно говоря чат GPT, и тем боле GPT 4, ну или чем Яндекс GPT, чем GigaChat, но при этом они открыты и у нас в кармане, а не черти где находятся в облаке. Потому что всё-таки для некоторых задач я бы предпочёл, чтобы у меня все вычисления происходили где-то рядом, а не где-то там, где мне честно гарантирует что всё будет хорошо.
АН: Понятно. То есть, есть опасения на счёт безопасности этих данных, информации?

РН: Да, конечно.

АН: Понятно. А вот я слышал, что все эти открытые лингвистические модели они базируется… по сути их пра-пра-прадед Т9?

РН: Т9, который в телефонах? Ну в некоторых смыслах да. Т9 в телефонах это ровно та же самая, с точки зрения техники, языковая модель, если совсем все упростить, которая как раз таки предсказывает, а что наиболее вероятно было бы написано. Правда она не следующее слово предсказывает, а мы нажали несколько кнопок, там есть некоторые варианты слов, которые могут быть этими кнопками нажаты, Т9 в условиях контекста предыдущего оценивает, а что здесь может быть. Кстати прикольная штука, хотя конечно современным студентам это не очень актуально, потому что всех уже смартфоны, где у всех полноценная qwerty клавиатура, но дать домашку написать свой собственный Т9, мне нравится.

АН: А как студенты смотрят, в интернете лежит полно свободных open source моделей. Взял, скопировал или у вас это как-то отслеживается?

РН: Да пускай копируют. Тут вопрос не в том, чтобы сделать все свое с нуля, потому что обучить их нереально. Это десятки и сотни часов на куче машин с видеокартами и так далее. Тут вопрос, в том, чтобы взять это нормально обернуть во что-то хорошее, правильно провалидировать на свои задачи. Никаких проблем. То есть писать людей с нуля мы заставляем, ну как заставляем – предлагаем в рамках учебного курса, ну это плюс минус добровольно принудительно. Решать какие-то задачи, прям с нуля писать какие-то базовые алгоритмы, базовые подходы просто, чтобы люди поняли, что это не большая волшебная коробка, в которой происходит магия, после которой вам приходит ответ. Нет, под капотом там, на самом деле, абсолютно простейшие вещи. Короче линейные модели, линейные уравнения решаются, которые ещё в школе многие решали и какие-то там различные хитрости математические, которые позволяют все этой огромной машине работать. Если могут сделать руками из чего-то готового, ну максимально приветствуется. Как говорит мой научный руководитель: «Наука - это дело цеховое». Ну чуть-чуть перефразирую, не помню точно цитату. То, что в одиночку в наукоемкой области что-то сделать – это удел единиц, в принципе людей со всего мира. Потому что это в настоящий момент надо быть сверх гениальным, чтобы с нуля что-то сделать самому полностью.

АН: Ясно. Вдогонку сразу тебя спрошу. Что отличает выпускника МФТИ от какого-то там программиста, который сам учился программированию, какие-то краткосрочные курсы. Потому что некоторые работодатели жалуются, что сейчас некоторые программисты знают какой-то там язык или кусок языка, а вот не способны решать комплексные инженерные задачи. То есть, что ты думаешь по этому поводу?

РН: Ну это следствие того, что рынок наводнили курсы формата «Научись программировать за три недели». Вот мне регулярно приходили уведомления «ВКонтакте» научись писать нейронные сети за неделю и через неделю продай свою нейронную сеть за один миллион. Я всё сижу и жду, где мой миллион. Нейросетей я написал много, а что-то никому за миллион пока я их не продал.

АН: Нужен грамотный маркетолог, обернуть все это дело.

РН: Ну понятно, но они же мне сказали, что они меня, а я сразу продам. Где? Я уже научился.

АН: Слушай, надо было принять предложение.

РН: Ладно, это в роли шутки. Ну а так, это типичная ситуация, когда наводняется рынок мало квалифицированными специалистами. То есть они что-то выучили, но в чем отличия даже не только физтеха от фундаментального образования и вообще от университетского образования? В том, что фундамент и на физтехе, и в Вышке в МГУ и в Бауманке и в МИФИ, и в СПБГУ, ИТМО, если кого-то ещё забыл пожалуйста извините. Есть куча хороших университетов. У меня альма-матер физтех, поэтому понятное дело я сквозь призму про него рассказываю. Людей несколько лет заставляют учиться чему-то сложному, заставляют их учить матан, заставляют еще учить физику, учат алгоритмы, разработку, люди пишут диплом, если они в магистратуре они пишут ещё два диплома: в бакалавриате и магистратуре. И в процессе, человек, просто на просто, решает сотни задач, причём многие из них вообще не тривиальные, но они не очень понятны по началу человеку зачем. Это на самом деле минус, но зато человек решает много задач и просто накапливает опыт. А если человек за три месяца прошел курсы, в среднем у человека есть опыт, он научился что-то делать, ну, например, можно учиться жонглировать за две недели, наверное. Ну я вот за две недели плюс минус научился жонглировать, правда потом через год я обнаружил, что я плюс минус разучился, но тем не менее. Но человек, когда чему-то новому научится, но шаг влево, шаг вправо, а там ничего не понятно. Это большие проблемы. Короче, фундаментальное образование оно нужно. Здесь у меня больная на самом деле тема. Буквально два дня назад выступал ещё на конференции за образование тоже немножко рассуждал, в контексте LLM, тоже про них говорят, что сейчас они пришли и всё ужас у каждого в кармане есть личный грубо говоря чат-бот, который все что угодно подскажет. Да правда так. Тут ещё вопрос в мотивации людей, потому что люди идут на краткосрочные курсы это что? Это повышение квалификации, ДПО, хочу на новую работу и так далее. В среднем, опять же таки, есть исключения. Люди идут в университет зачастую или потому что родители отправили, если совсем маленькие, либо понимают, что они хотят учиться, вот как раз-таки мотивация, хочу учиться, чтобы не просто прийти на работу, а что-то большее, это, наверное, ключевая вещь, которая позволяет человеку вырасти. Причём это можно сделать без университета на самом деле. Сейчас открытых материалов образовательных настолько много, что было бы желание. Учитесь! В университете тебя просто помещают в какую-то среду, где есть какие-то коллеги, студенты, одногруппники, преподаватели, научрук желательно, которые человека направляют, иногда чуть-чуть подпинывают в нужном направлении, иногда поддерживают и это помогает. А если человек способен в одиночку, то честь и хвала. Такие люди есть и их не очень много. Но материалов по которым можно выучиться, вот сейчас прямо можно сесть дома за компом с тетрадкой и в принципе пройти весь университетский курс и физтеха и MIT, и Стэнфорда, и вышки и так далее. Я сам на самом деле так учился. Я, когда начал сам разбираться в этих методах искусственного интеллекта, я учился по факту не только на физтехе, а ещё в Стэнфорде, в MIT, потому что их курсы были уже записаны и доступны в интернете. Например, лекции Andrej Karpathy, по-русски всегда называл Андрей Корпатый, если как-то неправильно произношу приношу свои извинения. Шикарный исследователь, преподаватель. Вот его Стэнфордские лекции меня в некотором смысле вообще вдохновили преподавать, потому, что когда их открыл, мне сказали посмотри – там прикольно. Я открыл и настолько там человек просто и понятно все рассказывает. И я вроде это понимал, но у меня это было как-то со скрипом. Посмотрел лекции, и думаю, боже какая красота, все по полочкам, все понятно и все работает. Учиться можно, было бы желание. Другое дело, что людям часто нужна мотивация, которой сильно недостает, особенно если работа, жена, дети или муж. Короче куча всего, что отнимает время. Заставить себя учиться по 20 часов в неделю – это прям сложно.
АН: Ну таких по моей статистике меньше 10%, которые способны самостоятельно обучаться. Я так понимаю, чтобы стать успешным инженером, нужно задвинуть свою вторую половину и заняться, матаном, физикой, чем еще там?

РН: Ну скажем так, программу образовательную можно в интернетах найти. В принципе любой сможет доступный преподаватель, завкафедры набросать. Задвигать, наверное, не стоит, но для себя чётко решить, что … Вот грубо говоря, люди ходят на работу, если это нормальный, адекватный, честный сотрудник, то люди вроде как на работе работают, вот у нас в рабочей неделе 40 часов, люди тратят 40 часов на работу. Понятно там обед, перекур, поболтать с коллегами. Ну пусть 25-30. Это как бы хорошее время, которое человек работает. С учёбой должно быть также. Человек решил, вот там я учусь, я работаю над дипломом, я пишу статью. Все, значит 10 часов в неделю ты работаешь над этим и это надо внутри для себя решить и работать. Если: «Ну вот, если будет время, вот я поучусь». Как бы это хобби по фану и результат будет скорее всего неудачный. Банально я сам это проходил. Я так пытался учить испанский язык. Думал, нормально, сейчас поучу. Нет. Вот в этом фоновом режиме я научился разговаривать формата Моя мослава и всё.

АН: Hola!

РН: Hola! no habla espanol

АН: Понятно. Я кстати посмотрел твои онлайн курсы, я так понимаю, если пройти твою онлайн академию, ту что где-то в Яндексе лежит.

РН: На YouTube есть в записи всех курсов, которые я читаю. Ну есть академия Яндекса, я к ней имею очень костное отношение. Есть магистерская программа, которую мы с коллегами на физтехе запустили, но это именно программа по сути курс молодого бойца в области искусственного интеллекта, нацеленная, в первую очередь, на людей, наверное, не с физтеха. Почему? Потому что первый семестр мы повторяем те вещи, которые необходимы, чтобы войти в область, а на физтехе логично все это уже прошли. Но так как люди в основном извне на эту программу шли, потому что она онлайн. А на физтехе обычно на кампусе сидят, им не надо онлайн, им надо очно. Это такой курс молодого бойца, который в принципе сейчас второй год выпускников закончил. Вот буквально защита на прошлой неделе была и в принципе люди успешно после этого трудоустраиваются и работают, и показывают хорошие результаты, публикуются. То есть работает. Но прям, мы у них как раз интервью тоже проведём небольшие, спросим, как дела. В целом по отзывам пахать надо. Это было им прям сложно, но из них, по-моему, 95% работают на фултайме, у половины уже есть семья, дети. Эти люди обычно 30 плюс.

АН: Это магистратура, да?

ПН: Да это магистратура.

АН: То есть, если я там взял, посмотрел твой курс, твои записанные лекции, полностью их прошел, получается, что я уже практически готовый специалист в области искусственного интеллекта?

РН: Ну если по-честному прошел, все домашки сделал, со всеми проблемами разобрался. В чем плюс собственно магистратуры, которая именно проводится целиком. Мы же там не только материалы даем, материалы вообще, моя принципиальная позиция, должны быть открытые. Пусть все кто хочет, все учатся. По сути, мы предоставляем возможность обратиться за советом к преподавателям, попасть в группу, которая над этим работает, написать диплом вместе с каким-нибудь научным руководителем. Короче поддержку и менторство. Если всё делать качественно и по-честному, то да. Эта программа в принципе достаточно… ну она не единственная, я сразу скажу, что есть куча хороших программ, но в принципе наша ничем не хуже, надеюсь. В чем-то лучше, в чем-то хуже –это нормально. Она просто другая. Она позволяет стать достаточно релевантным специалистом на текущий момент. Например, сейчас, летом, мне предстоит переделать курс как раз-таки по обработке естественного языка, потому что то, что произошло за последний год это в некотором смысле революция и его надо как раз-таки переделывать. Но, а в ходе учебного года очень сложно внести прям значимые изменения. Поэтому на лето запланировано его переписывать.

АН: Что он там, отходит от питона?

РН: Нет. Питон с нами останется надолго, потому что он просто удобный и работает, плюс он открытый, в отличии от того же самого MATLAB, который был очень популярен в области машинного обучения искусственного интеллекта, всех этих методов. MATLAB проприетарный. Люди, которые очень любят проприетарные решения в сообществе обычно не очень любят проприетарные решения по понятным причинам.

АН: Потому что за это надо платить деньги.

РН: А ещё потому, что можно получить отмену лицензии по любым причинам, как недавно у нас произошло много где.

АН: Да это тоже риск. Я кстати заметил, что у тебя в лекциях достаточно много используется англоязычных терминов. Это связано с тем, что наука искусственного интеллекта в большей части развивалась там, на Западе?

РН: Да, но многие термины просто не переведены на русский язык как-то однозначно и все новые вещи практически происходят в международном сообществе на английском языке. То есть все ведущие конференции и так далее, более того и наши российские коллективы постсоветского пространства тоже публикуются на международных конференциях на английском языке. Грубо говоря, сейчас это основной язык. Я сначала думал все это дело переводить. Потом понял, что куча терминов переводится плохо и потом придётся заново разбираться, что здесь написано. Поэтому я стараюсь использовать ту терминологию, которая общепринятая. В англоязычной среде она есть, в русскоязычной не совсем, где-то есть, где-то нет. С одной стороны не очень хорошо, что у меня треть слайдов… точнее как раз таки все слайды у меня на английском, потому что иначе треть слайдов была бы на английском, две трети на русском, какая-то мешанина. Во-вторых, есть термин DropOut, например, техника регулизации нейронных сетей. Регулизация на самом деле тоже некоторое калькирование с английского «regulization». Вот как перевести DropOut? Я до сих пор не знаю короткого нормального слова. Dropout это когда берут и выкидывают часть нейронов изнутри. Именно DropOut. По-русски что? Выкидывание нейронов? Не звучит. Ну ещё есть пример. У меня как раз-таки дипломник писал работу, знакомый. У него была подподвыборочная нормализация. Его просто заставили все английские слова перевести. Я завис секунд на 30, пока до меня не дошло, что это как раз таки общеизвестная техника batch normalization. В 2015 году ее презентовали. Batch это подвыборка. Нормализация по подвыборкам. Короче язык сломаешь. Честно, batch norm лучше звучит, чем такая длинная кракозябра.

АН: Может быть в скобках латинские аналоги?

РН: Можно, но я к тому что термин понятный, но мы же не говорим, ну я там не знаю, какие у нас есть, слова… Ну короче это не очень правильный пример, ну вот все к примеру, говорят ксерокс, ксерокопия. Это же вообще название компании, название копировальный аппарат. Но нам лень говорить копировальный аппарат, мы говорим ксерокс. Вот тут тоже самое. Нам лень говорить нормализация по подвыборкам, мы говорим batch norm.

АН: Понятно. Давай закончим эту образовательную тему. Как складывается ситуация на рынке труда? я так понимаю в одно время был хайп, тем более, когда это силиконовая долина бурно так росла пару лет назад.

РН: Росла она последние 20 лет. Хайп был во время Covid, потому что люди ушли в интернеты. IT-шные компании такие: «О много прибыли! Надо нанимать, нанимать.», и был дичайший хайп. Банально наши выпускники Физтеха, M.Sc. ещё тогда не было, это магистерская программа, они выходили и им могли давать там офферы, которые в среднем дают людям, которые их старше по опыту на года 3-4-5 и короче пылесосили рынок как могли. Я на самом деле до сих пор не очень понимаю в чем прикол. Потому что было понятно, что это временный всплеск. Потому что люди сидят на карантине дома и так далее. Сейчас куча сокращений с обоснованием, что вот рост прибыли не продолжился такими же темпами, у нас сокращения. Я не знаю, толи я че то неправильно думаю, поэтому это было плюс минус очевидно. Потому что это внешние обстоятельства, а не то, что все компании такие молодцы, что люди ушли в онлайн. Сейчас на рынок обратно выплеснулось огромное количество специалистов, но в первую очередь не топового звена, потому что чем более высококлассный специалист, тем больше нужен компании. Поэтому сейчас на западе скорее рынок гораздо более заполнен специалистами и их пытаются всё равно где-то нанять, но в России из-за определённых событий наоборот дичайший недобор специалистов. Многие куда-то уехали и сейчас нам нужно… «Нужно больше золота!». Нужно больше людей, которые будут что-то делать более осмысленно. Опять же оговорюсь нужны высококлассные специалисты, пускай даже уровня младший разработчик, младший исследователь, короче джуны, но они должны иметь нормальную подготовку. А вот человек, который прошел условные курсы за три недели, типа ему сказали: «Всё, теперь ты готов», и он приходит на собеседование и человек готов разбить мое сердечко как преподавателя. И я такой: «Боже мой! Зачем?». Не надо. И вот пожалуйста есть открытый материал, есть учебник того же Яндекса по машинному обучению. Мы его всем миром писали. Яндекс собрал, в принципе, почти всех преподавателей по машинному обучению. Организовал и кто-то написал одну главу, две, три. И сейчас, наверное, это лучший учебник по машинному обучению, который в принципе был когда-либо. Ну прочитайте вы его! Он открытый и бесплатный. Лежит как бы на сайте и всё. Там отлично все написано. Нет, люди приходят и начинают затирать, что логистические регрессии решаю задачу регрессии. Я такой: «Понятно».
АН: Понятно. Возвращаясь всё-таки к LLM. Меня удивила та ситуация, когда было достаточно много лидеров с большой капитализацией, взять тот же Google, со своим DeepMind и Джеффри Хинтоном, одним из родоначальников современного искусственного интеллекта, который изобрёл эту теорию backpropagation, да?

РН: Он был в группе как раз-таки Rommel Hart, по-моему был глав группы, могу наврать. Которая предложила механизм обратного распространения ошибки. Я сразу оговорюсь, это забавный факт. То, что они его изобрели, они предложили его для методов искусственного интеллекта, но по факту всё это было известно со времён Ньютона. Это производная сложной функции. Все. Там нет никакой магии. По факту это люди на первом курсе проходят. Для меня несколько загадочно, что долгое время это не использовалось. Ну вот в 1986-м году они это предложили и с тех пор используют.

АН: И как, взять тот же Facebook, Мета со своими мощными системами рекомендациями, там же тоже искусственный интеллект используется?

РН: Он везде сейчас под капотом.

АН: И как они пропустили такого небольшого конкурента OpenAI? Возьмём тот же Google, как он допустил такого конкурента и тот прорвался со своим ChatGPT?

РН: Ну OpenAI по сути компания, которая была нацелена не на извлечение прибыли, а как раз таки на исследование развития технологий. Они ж по сути на инвестициях долгое время жили. И собирали прям ведущих специалистов в мире как раз-таки по всем этим темам. То есть в OpenAI одна из сильнейших команд, которая могла бы конкурировать с DeepMind, но в принципе, внутри сообщества, OpenAI и DeepMind это две высших точки, что самые крутые коллективы там. То есть выше уже некуда, это просто такое общественное мнение, по крайней мере в моем окружении. Возможно где-то скажут: «Ты что? Там в Яндексе круче всех! Или в Meta». Пожалуйста. Но вокруг меня вот многие ребята, да и я сам на самом деле, вот ты меня спрашивал, чего не уехал, если бы, условно говоря, меня в OpenAI позвали, я бы там наверно пару годиков точно поработал бы. Потому что от таких предложений обычно не отказываются. Там люди мирового уровня, выше уже нет. Но я думаю они вышли вперёд, потому что методично этим занимались. Они GPT-1 первый выпустили в 2017-м году, в 2018-м или в 2019-м году вышел GPT-2, который был уже в свое время был огромный, потом вышел GPT-3 на 175 миллиардов параметров в 2020-м году, потом соответственно они его допиливали. Просто у всех крупных компаний задача какая? Это прибыль извлекать. Они соответственно использовали то, что сейчас позволяет улучшить результаты и так далее. А OpenAI сидели делали прикольные вещи, не только LLM они прославились, но у них есть замечательная, опять же таки Open Source, люблю Open Source, моделька, которая Whisper называется, которая замечательно переводит голос в текст. И она открытая и она работает очень хорошо. Я банально взял все свои лекции и на русском, и на английском, запихнул в неё и у меня есть текстовка с минимальным количеством ошибок всех лекций. По сути с минимальной доработкой это учебник. Например, наш с тобой разговор можно сейчас за 20 минут перевести в текст, причём ещё разбив кто что говорил, и потом из этого сделать текстовую запись выступления, выделить основные тезисы и где-то опубликовать и так далее.

АН: Это кстати хорошая идея, потому что мы используем стенографиста для расшифровки субтитров.

РН: Пиши, я рад поделиться. У меня даже готовые решения на эту тему лежат. Я стараюсь это дело применять для расшифровки встречи и потом из них чтобы какое-то summary автоматом писалось. Пока что в работе, но писать эти follow up, а после встречи вечно больно, некогда и так далее. Либо есть хороший менеджер, который сделает это хорошо, либо не хороший менеджер, который сделает это плохо. Потому что я обычно с одной встречи могу убежать на другую и сидеть полчаса писать follow up у меня, к сожалению, времени нет. Я только какие-то тезисные мысли могу себе выписать.

АН: Понятно хорошая идея, спасибо что подсказал. А что ты думаешь по поводу конкурентов ChatGPT, GPT 4. Вот взять тех же китайцев, насколько они далеко сзади?
РН: Я думаю, все плюс минус приближаются, потому что огромное количество моделей уже доступно. Причём опять же есть закрытые модели, Google Bard, GigaChat, Яндекс GPT. Они по сути опираются на наработки, но они закрыты. А есть куча открытых моделей, которая основывается на слитой LLaMA и уже воспроизведенные результаты полным сообществом под открытой лицензией и они вообще говоря очень неплохо наступают на пятки. Об этом даже было, по-моему, какое-то письмо, толи слитое, толи что. В какой-то компании в Google, по-моему, волновались, что вот open source наступает нам на пятки и сейчас нас всех обгонит. Так что, я думаю, в течение года большинство задач, которые могут решаться, по крайней мере, только на уровне текста с помощью того же чата GPT, они будут плюс минус хорошо решаться и открытыми моделями и, соответственно, любыми моделями конкурентов тоже. Потому что, если это есть в open source и под открытой лицензиией, ты совершенно спокойно можешь это использовать и на это опереться и посмотреть, что там сделано. А вот если говорить про мультимодальные данные, сейчас объясню, что это такое. Это возможно работать не только с модальностью текста, но и с картинками. Туда возможно звук допихнуть, какую-нибудь I am you, короче показатели акселерометров, гигрометров, гироскопов, ускорителей нового поколения и так далее. Вот с этим вопрос пока более открытой, а GPT 4 уже умеет работать с картинками тоже, по крайней мере, как утверждают. Я сам лично пока не использовал.

АН: А с видео он может работать?

РН: Пока нет. Но это как раз-таки следующий шаг. Если они опять туда прыгнут, то в мультимодальных данных всё сильно сложнее. Потому что опять же таки данных мало и учиться непонятно на чем. Это открытая задача. Чисто тексты, я так скажу, в одиночку я на open source решениях на коленке сделал в принципе модельку, которая генерирует вопросы для студентов на экзамены. Такие простые, уровня… короче, если человек не может ответить на эти вопросы, то это неуд. Вот на коленке за 3 часа времени одним человеком делается такая штука. Год назад было нереально.

АН: Радослав может уже в альма-матер может больше не появляться. За него всё делает чат бот.

РН: Если бы.

АН: Не все удается автоматизировать, да? Есть такие разные сообщения про конкурентоспособность китайских чат-ботов, там тоже Ernie, по-моему, называется. Китайцы говорят, что он в принципе достиг производительности ChatGPT, а американцы пишут, что они сильно отстают.

РН: Ну это по сути такие политические вопросы, кто здесь главный. Китайские исследователи точно догонят и скорее всего перегонят, просто потому что это дикий паровоз, который уже набрал инерции и несётся вперёд. Сколько там денег вкладывается в исследования, в образование, как они переманивают специалистов, как они отправляют их на запад, а потом возвращаются назад, можно примерно по любой области посмотреть. Те же самые китайские автомобили. Вот 10 лет назад китайские автомобили и сейчас. Там и все эти беспилотные механизмы появились, и они сделаны классно. Телефоны, компьютеры – у них свои ускорители появляются для нейронных сетей. Они я думаю конкурентоспособные на горизонте года точно. Я просто не проводил сравнительный анализ Ernie и GPT 4, например. У них ещё какая-то модель была. От Baidu есть классная модель, не помню как называется. Но это уже сравнили или сравняются. Плюс тут ещё надо понимать, что? Что модель для английского языка, для латинских языков и для китайского языка, и для других языков, где географическое письмо – это чуть разные вещи. Там принцип построения предложения, вообще язык по-другому устроен. Поэтому в чем-то они могут быть лучше, в чем-то хуже. Поэтому даже одни и те же benchmark и метрики могут чуть-чуть по-разному себя вести, где-то быть выше, где-то ниже. Но с точки зрения применимости, я более чем уверен, что на горизонте года – это будет сопоставимо между собой. Ну потому что.

АН: Чтобы их оценить, наверно, надо знать китайский язык, да?

РН: В том числе. Можно оценить китайскую модель на китайском, можно оценить англоязычную на английском, вот оценить их между собой есть международные benchmark, плюс через переводчиков это делают. Берут то, что модель отвечает, переводят на английский, сравнивают. Но тут есть, во-первых, потери от перевода, во-вторых, опять же датасеты по-разному заточены на разных языках. В принципе, я опять же говорю, я не проводил никакой сравнительный анализ. Поэтому все пожалуйста воспринимайте как чисто субъективное мнение. Сейчас они чуть-чуть, мне кажется, отстают, но это достаточно скоро должно быть исправлено.

АН: А какой ценник входа на рынок? Я раньше читал, что в OpenAI порядка 10 миллиардов, на начальных стадиях. А сейчас этот ценник упал до миллиарда, с учетом этих open source моделей. Какой сейчас вообще ценник захода на этот рынок?

РН: Входа на какой рынок?

АН: Тех же LLM.

РН: Сейчас в виду наличия огромного количества open source моделей, которые разрешают коммерческое использование, ценник упал до … если разрабатывать новые модельки то до зарплаты высококлассных специалистов и кучи железных, которых учить, если делать из этого продукт, то в принципе сделать какое-нибудь очередное приложение, чтобы список дел, персональный рекомендатор фитнес тренировок или медитации, отслеживание каких-нибудь циркадных ритмов или сделать вот этого чат-бота, который где-то крутится, но и не сильно таки различаться будет. Потому что, опять же таки, есть куча решений, которые берёшь из коробки и используешь. Не знаю, как в gamedev есть движки, что раньше, чтобы сделать игру. надо написать свой движок. Это долго и дорого. Сейчас берёшь какой-нибудь или по лицензии, или вообще open source, пилишь свою игру, движок писать не надо. А на него надо потратить кучу денег, времени, сил и не понятно заработает ли. Так что именно для простых коллективов сейчас очень упростилась жизнь, что на самом деле замечательно. Значит прогресс не будет заставлять ждать. Куча маленьких игроков могут всё равно гораздо быстрее сделать лучше всем, чем один великий мастодонт, который за все хорошее.

АН: Как по аналогии с AppStore и GooglePlay. Ну, когда там куча разработчиков.

РН: Именно. То есть сейчас появилась куча возможностей, сейчас нет никакого общего Store, но есть инструменты, из которых можно собрать. Тот же самый пример, если откатится далеко-далеко назад, ещё в семидесятые-восьмидесятые-девяностые, с появлением более высокоуровневых языков разработки стоимость разработки упала в разы и скорость разработки возросла. Если раньше, условно говоря, надо было что-то там писать на Сях, на Ассемблере, то сейчас садишься и, условно говоря, на Python, на Go, с использованием джанги, можно сделать какое-то приложение за часы, которое что-то делает. Раньше это были недели, скорее всего.

АН: А вот кстати ты сказал, что у Meta утекла модель LLaMA. При каких обстоятельствах это случилось?
РН: Они сами решили её выложить в открытый доступ, но только по условно… ну короче нужно подписать договор, что я буду использовать только для академических исследований, но кто-то почесал репу, положил все это на Torrent и сказал: «Ну ребят я что-то подписал, но вы ничего не подписывали, лежит там». С одной стороны Meta огромное спасибо, что они хотя бы для такого использования выложили. Потому что поддерживать open source опять же очень нужно, почему? Если все это в рамках одной компании сидит, то специалисты будут только высококлассные только внутри этой компании, они могут куда-то уйти, и плюс растить новых специалистов это задача внутри компании, но это очень мало кто может себе позволить и все равно не столь высококачественно. Когда это в open source находится, это протекает и в учебные курсы, и люди сами по приколу этим занимаются, кто хочет какие-то стартапы сделать, гораздо больше специалистов, гораздо лучше кто-то в этом шарит, кто-то что-то новое придумал, короче развивается быстрее.

АН: Короче, Троянский конь от Facebook.

РН: Я не знаю. Может это вообще был не баг, а фич, что они целенаправленно это сделали. Просто вот так. Это ж какой хайп был, что они что-то выложили. Сначала выложили под академической лицензией – нельзя использовать, а потом говорили много, потом утекло и опять говорили много. Черный пиар тоже пиар. Может специально было, может нет, не знаю.

АН: Понятно. Похоже на тактику Microsoft, которые там, грубо говоря, смотрят сквозь пальцы на использование Microsoft Office, скажем где-то в учебной среде, среди пиратских копий, а потом просто народ, когда у них появляются деньги они покупают лицензии. А насколько, скажем, те же китайцы зависят от западного железа для развития своих разработок в области искусственного интеллекта?

РН: Я думаю скорее от лицензии зависели долгое время. Сейчас Huawei вот долгое время под санкциями, но они свои ускорители делают и вроде как достаточно успешно. Плюс, мне кажется, часть AMD, которая была в Китае, чуть ли не полностью переехала под управление Китаем, у них там был закон, что любая компания внутри должна управляться не менее чем на 51% китайским собственником или что-то такое.

АН: Ну да, что такое.

РН: Я просто помню, что была статья на Хабре или ещё где-то, о том, что по сути произошёл отъем AMD, если мне не изменяет память, я могу сейчас наврать с названием, ну что-то в районе AMD, которые находились как раз-таки… ARM, простите, ARM, а не AMD, произошёл в некотором смысле отъем, вместе с технологиями. Так что, я думаю, они могут себе это позволить, позволить в смысле не отъем производителя, а разрабатывать все внутри. Потому что кузница или какая-то фабрика мировая и была долгое время в Китае. Там умеют воспроизводить плюс минус всё. И плюс есть еще Тайвань. На Тайване производят всякие микрочипы. Сейчас там думаю все слышали о политических проблемах, в том числе и это является некоторой причиной. Потому что там очень важные производственные мощности, и чтобы их воспроизвести нужен скорее всего не один год.

АН: Так, ну что ж, понятно, что творится в мире. А что творится у нас? На какой ступени находится развитие ЯндексGPT?

РН: Он развивается достаточно быстро и бодро. В чем плюс Яндекса, того же самого Google и так далее? В том, что это компании, которые долгие годы находятся на рынке и количество данных, что там люди искали, понятно люди куда-то всё равно пишут, пусть и обезличено, но всё равно где-то должны храниться эти данные или как-то обрабатываться, или какая-то статистика должна собираться, чтобы улучшать рекомендательный алгоритм, например. Поэтому количество данных, которые были у OpenAI и количество данных, которые есть у Google или Яндекс, тем более, оно сильно разница, плюс количество специалистов внутри, которые тоже на этом собаку съели большое. Так что развивается достаточно хорошо, но для русского языка сейчас это будет один одним из ведущих решений, просто потому что в него много сил вложено и ещё множество идей, не могу сказать каких, находится в разработке, которые должны сильно повысить качество. Так что думаю на русском языке у нас будет тоже хорошая моделька, с которой можно будет много что делать.

АН: А где с ним можно ознакомиться? На главной странице Яндекса?

РН: Там же есть этот навык «Давай придумаем в Алисе», плюс сейчас её должны вкручивать в различные продукты Яндекса, то есть они будут скорее всего и в браузере и где-то на мобильнике есть приложение. Вот навык «Давай придумаем» работает прямо сейчас. Более того Алиса уже умеет поддерживать контекст беседы. Это вполне себе можно использовать по приколу. Она не сможет условно что-то там вообще невероятное, что порвет все шаблоны, но в принципе для каких-то небольших запросов вполне себе применимо.

АН: Когда наконец Яндекс GPT сам сможет создавать и писать авторефераты, курсовые?

РН: Ну в каком-то виде уже сейчас. Другой вопрос насколько качественно? Но тот же вопрос и к GPT. Потому что он что-то генерирует, а потом если человек это прочитает может заметить что-то. Например, на западе, там некоторых адвокатов, по-моему, привлекли к ответственности, потому что они использовали для обоснования по какому-то делу…сказали, вот прецедент, который они спросили у GPT, GPT им сказала, а потом проверили, а этих событий вообще не было. А он себе напридумывал, нагаллюцинировал и адвокатам сказали, а вы вообще проверяйте, что вы тут говорите, вообще то вы не имеете на это право. Тоже самое с рефератами. Написать то можно, просто насколько там будет бред написан.

АН: Я так понимаю система Антиплагиат уже как-то маркирует.

РН: Это больная тема. У меня есть замечательный коллега, который тоже преподаватель с физтеха, с той же кафедры, где я учился. он как раз-таки руководит исследованиями в компании Антиплагиат и он буквально два дня назад целое выступление давал на тему «Как детектировать сгенерированный с помощью этих языковых моделей текст?». Ну ответ на самом деле классический. Это битва копья и щита. То есть модели становится лучше. Они генерирует более похожий на написанный человеком текст. Все модели по детекции плагиата и детекции сгенерированного текста становятся лучше. Но в приделе, мне кажется, тут будет какая ситуация? Идеально написанный плагиат, идеально написанный сгенерированный текст, не является плагиатом. Он не отличим от того, что написал человек. Поэтому если до туда дойдёт, то тут ничего детектировать. Просто будет новая парадигма, что модель может написать текст, который по сути несёт в себе какую-то ценность сам по себе целиком. Другое дело, что это абсолютно новые реалии и к ним придётся как-то адаптироваться.

АН: И что ты думаешь, кстати, по поводу апокалиптических прогнозов? Тот же Джеффри Хинтон написал статью большую.

РН: Ну он в этом гораздо дольше находится. Возможно у него взгляд, учитывая, что он знает гораздо больше чем я, и внутренних историй, гораздо более ведающих в этой области, эти прогнозы наверно имеют место быть, в том плане, что если мы сейчас, какой-нибудь ЭйДжиАй (AGI)… короче j,obq искусственный интеллект или искусственный интеллект, который обладает какой-то искрой самосознания создадим, то будет вообще не понятно, но я боюсь проблемы, что человеки могут гораздо быстрее устроить апокалипсис, чем все эти искусственные интеллекты, потому что…

АН: Без всякого искусственного интеллекта, да?

РН: Естественный интеллект пока что более всех преуспевает в создании всяких опасных ситуаций, истреблении себе подобных, к сожалению.

АН: А когда искусственный интеллект, например, достигнет уровня человеческого разума?

РН: Последние 43-го года, вот тогда был проект человек-машина как раз-таки запущен. В Нью-Йорке собрались кибернетики, математики и психологи и обсуждали, давайте-ка сделаем искусственный интеллект, давно пора, всё будет хорошо. Примерно с тех пор, в течение 20 лет что-то будет. Так что скажу, в течение 20 лет что-то будет, но, если что через 20 лет ещё повторюсь. Но по крайней мере, не уровня человеческого интеллекта глобально, потому что человек он чем отличается? Мы можем решать любые задачи, хочется верить. Пока что мы не знаем других видов живых существ, которые могли бы решать любые задачи. Вот, например, полететь в космос, условно говоря, дельфину нафиг не нужно. В космос он не хочет лететь, ему и в океане нормально. Человек зачем-то туда залез. Вот задачи достаточно сложные, я думаю на горизонте пяти лет уже будут решаться в плане задачи, типа проведи сравнительный анализ существующих решений на рынке радиоэлектроники с учётом санкций и так далее. Это плюс минус уже сейчас может быть сделано, в течение года-двух, я думаю, будет уже нормой. Буквально вчера вечером прочитал, забыл к сожалению компанию, они ближе к хранению данных и обработке и так далее, они выкатили свой или презентовали свой интерфейс для User Defined Functions, где можно просто написать вместо написания кода, типа вот есть база данных, достань из неё что-то, можно словами написать, что надо и она сама генерирует под капотом код и дает выхлоп. Причём по их утверждениям достаточно точно. Причём есть база данных всех транзакций в каком-нибудь банке, можно написать «Сформируй, сделай гистограмму, где указаны топ пять категорий трат людей из такой-то страты, а все остальные категории объедини в остальную» и оно бац и под капотом генерируются код, который рисует эту самую гистограмму. Для меня это выглядит как абсолютно какая-то волшебная магия. Кажется, немножко тёмная. Опять же таки есть некоторый называется cherry-pick в сообществе, выбираем вот вишенку на торте, некоторый не то что подлог, а скорее на хороших результатах это презентовали, что в среднем есть не очень хороший результат. Но опять же это надо руками тестировать. Но даже если 80% случаях это работает, это вообще опять же иной уровень. Если раньше надо было что-то открывать, читать документацию, то сейчас написал текст, что тебе надо, если сгенерировалось что надо – всё великолепно.

АН: А кстати одно из этих развитий у ChatGPT было в том, что он может делать простейший программный код, да? Я правильно понимаю?

РН: Да. Сейчас таких моделей сильно больше, чем одна. Есть GitHub Copilot, который тоже может код писать, анализировать и так далее. Есть опять-таки открытая модель, я за ними стараюсь активно следить, StarCoder, который тоже может хорошо генерировать код, а главное анализировать код. Кстати на его основе один из моих дипломников сейчас писал работу про поиск Антиплагиата, и на основе просто, прогоняем через StarCoder, получаем векторное сжатое представление кода, просто сравнивая попарно векторные представления, можно очень неплохо детектировать кандидатов на плагиат, причём примерно мгновенно. Там обработка пятисот строк кода занимает секунды.

АН: А насколько эффективно он пишет программный код или это касается только простейших задач?
РН: Он его генерирует хорошо. Вопрос того, что он пока не умеет генерировать сложный код для решения сложных задач, то есть, например, если просить его решить любую задачку учебного формата, типа посчитай числа фибоначчи, напиши двоичную кучу, напиши алгоритм сортировки, я думаю сделает замечательно и быстро. Только у нас это и так везде есть. А если приходят, особенно со стороны бизнеса, менеджер говорит: «Так ребят, нам нужно для пользователей сделать, чтобы им было хорошо, а не чтобы было плохо», и там нужен по сути какой-то техлит, который сможет это переформулировать в несколько подзадач, сформулировать архитектуру, какие-то интерфейсы, учесть, что есть уже свой год, где-то что-то связано, такое пока людей то немного умеет, а что там могут модельки пока не очень понятно.

АН: Нарисовать две параллельные линии, которые идут перпендикулярно, да?

РН: Да одна прозрачная, другая красная.

АН: Понятно, а что касательно того что искусственный интеллект через 20 лет достигнет разума человека, там, я так понимаю, упирается всё в скорость вычислительной техники, да?

РН: В том числе. Но транзисторы здесь являются одним из ограничений. Возможно у нас просто архитектура вычислительных машин не оптимальна. Возможно проблема именно в том, что у нас не те модели не те задачи решают. Как раз-таки решение универсальных задач, то есть не только генерация текст, работа с текстом, с картинками, какие-то задачи из обучения с подкреплением, типа поиграть в шахматы, строить маршрут где-нибудь в какой-нибудь симуляция или в реальном мире и так далее, все в месте надо модели подсовывать, чтобы она училась. Но помимо вычислительных сложностей надо понимать, что у нас есть и другое ограничение. Говорить, что эти модели достигнут энергоэффективности человеческого разума, вот об этом пока что я бы не заикался. Потому что у нас мозг сколько там? 300 Ватт с верхом ограничим, я не думаю, что я сильно промахнусь. Я сам давно не читал, но учитывая, что вроде как велосипедист, спортсмен профессиональный может крутя педали вырабатывать примерно 200 Ватт, если мне не изменяет память, ну может чуть больше. Короче порядка сотен Ватт, я упрощу. Мозг я не думаю, что сильно больше потребляет. А условный LLM одна будет кушать 1000 Ватт, скорее всего. То есть 1000 Дж/с в отличии от сотен. А она всё-таки в одиночку гораздо глупее, чем человек. Она не может все эти задачи решать. С точки зрения энергоэффективности, что у нас будут роботы, как в терминаторе все ходить и отстреливать, либо мы придумаем какой-то термояд быстренько, либо они сядут за несколько часов.

АН: Понятно. Как борьба щита и пули, меча и щита. Что ты думаешь по поводу регулирования искусственного интеллекта? Сейчас, кстати, европейский Союз недавно принял новую директиву, Regulation, касаемо регулирования искусственного интеллекта. Там они в основном регулируют применение искусственного интеллекта в сфере государственного управления. У тебя есть мысли по этому поводу?

РН: Регулировать его точно придётся и лучше, чтобы в обсуждении его регуляция участвовали не только законодатели, но ещё и специалисты. Почему? Потом, что мы видим тот же самый путь, который был пройдён интернетом. Сначала он был вообще не зарегулирован, делаем, что хотим. Светлые времена с точки зрения сообщества. Интернет бурно развивался, кстати за счёт этого в России, за счет очень малой регуляции, очень устойчивая сеть интернета. Она не централизована по сути, она децентрализована. Это как раз всякие блокировки и так далее показали неплохо, что сеть у нас почти никогда не падала. Но при этом регулировать точно придётся, вопрос только в том насколько адекватно это смогут сделать. Потому, что если, условно, сейчас в Европе полностью запретят все эти LLM и заставят проходить 10 процедур регистрации по получению всяких лицензий, то я боюсь просто конкретно в этом месте все исследования в этом направлении и развитии применения каких-то продуктов, могут стать на несколько лет, а потом все будут грустить и страдать потому, что это и на экономику окажет влияние и на восприятие людей и так далее. То есть тут главное не перегнуть палку, все запретить. Мне кажется тут не тот случай, который стоило бы рассматривать. Потому что во всём мире всё равно не запретят. Те кто не запретят может быть даже получат по шее от каких-то промежуточных негативных результатов, зато потом окажутся впереди планеты всей. То есть надо очень аккуратно это делать.

АН: Кстати, один из вопросов вдогонку. Я так понимаю чат GPT может делать простейшие программные решения за счет того, что его подключили к депозитарию GitHub?

РН: Ну если она сейчас имеет доступ … она обучалась, почти видел весь GitHub, потому что он открытый, то на информации почему бы на них не пообучатся. Но сейчас у него есть плагин, который позволяет доходить до интернета, теперь может дополнительно что-то посмотреть. Ну это прямо да.

АН: Ну хорошо. Интересная беседа у нас получилась. Чем занимаешься в свободное время?

РН: У меня на самом деле нет какого-то явного разбития, вот здесь у меня работа, здесь свободное время. Моя работа и моя жизнь - это сопряженные между собой вещи. Я в принципе и исследованиями прикладными и преподаванием занимаюсь по любви. Я горю тем, что я делаю. Поэтому в свободное время я занимаюсь тем, что мне кажется наиболее актуальным. Могу сидеть читать какую-то умную книжку про что-то новое, могу сидеть залипать в неумные видосики на YouTube, могу залипать в умные видосики на YouTube, смотреть какие-то новые лекции, могу пойти шляться, гулять ногами, потому что очень люблю просто где-то ходить ногами. Могу сходить в тир пострелять, потому что прикольные вещи недавно для себя открыл. С детства хотел, а потом думаю, что я хочу? Вот у меня тир, до него доехать 15 минут времени. Могу с людьми как-то общаться. Ну у меня нет такого, что у меня вот есть хобби и я этим занимаюсь в свободное время. Мое хобби и моя работа это в принципе одно и тоже. Люблю на дачу съездить, в баню сходить, всё как у людей короче.

АН: Баня – дело хорошее. На этой позитивной ноте, я думаю, мы можем закончить нашу довольно таки насыщенно дискуссию. У нас в гостях была Радослав Нейчев заместитель заведующего кафедры машинного обучения МФТИ, также разработчик Яндекса в области машинного обучения искусственного интеллекта и перспективный российский специалист в области искусственного интеллекта. Радослав, рад был тебя видеть.

РН: Спасибо за приглашение.

АН: Надеюсь ещё увидимся в будущем. Всем спасибо. Подписывайтесь на наш канал Nadmitov Live. Всем до свидания!

YouTube канал:

Аудио подкасты:
Made on
Tilda