ИИ в России и мире:
Евгений Бурнаев — откровенно
о будущем технологий
В гостях:
  • Евгений Бурнаев
    Директор Центра искусственного интеллекта Сколтеха
    Доктор физико-математических наук, профессор. C 2007 г. занимается разработкой и реализацией инженерных проектов на основе искусственного интеллекта для таких компаний, как Airbus, SAFT, IHI, Sahara Force India Formula 1 team, Huawei и др.
В новом выпуске мы беседуем с Евгением Владимировичем Бурнаевым — одним из ведущих российских специалистов в области искусственного интеллекта, директором Центра ИИ Сколтеха и ведущим научным сотрудником Института AIRI.

Добрый день, дамы и господа. Рад приветствовать вас на нашем канале. Меня зовут Александр Надмитов. Сегодня я рад приветствовать нашего гостя Евгения Владимировича
Бурнаева, одного из ведущих российских специалистов в области искусственного интеллекта, директора Центра искусственного интеллекта СКОЛТЕХА и ведущего научного сотрудника Института AIRI.

Здравствуйте.

Добро пожаловать. Ставьте, пожалуйста, лайки, они нам понадобятся. Евгений Владимирович, расскажите, как вы достигли таких успехов?

Как дошел до жизни такой? Ну, знаете, такой длинный тернистый путь. Начинается еще все в МФТИ, факультет управления прикладной математики. Собственно, там я понял, что действительно хочется заниматься какими-то вещами, связанными с вероятностным моделированием данных, временных рядов, сигналов. И через какое-то время, когда я уже защитил диссертацию одновременно примерно с этим, она была очень теоретической, там всякие случайные процессы у академика Ширяева с мехмата. После этого я встретил коллег, кто занимался уже прикладными задачами. То есть это приложение машинного обучения, анализа данных. В то время термин искусственный интеллект еще так не звучал, как сейчас. И вот они использовали эти методы, начинали использовать для решения различных инженерных задач, оптимизации дизайна инженерных изделий. Мне даже удалось, тогда еще и было разрешено, поработать с оптимизацией компоновки пассажирского самолета Airbus-350. В общем, как-то вот так это развивалось.

Интересные инженерные разработки. Не было соблазна уйти в бизнес?

Знаете, мне всегда было очень интересно, с одной стороны, решать прикладные задачи, потому что они дают пищу для размышлений, для новых математических установок. Все-таки искусственный интеллект — это инженерная наука, по крайней мере, на данный момент. И поэтому это одна сторона. А другая сторона... Мне всегда хотелось какой-то математики, алгоритмы, математические модели тех данных, с которыми работаешь, доказательства теорем, почему там скорость сходимости быстрее или, наоборот, алгоритм не очень хорошо срабатывает. Соответственно, и публикационная активность. Вот это меня тоже всегда очень привлекало, поэтому всегда приходится совмещать.

А не было ли соблазном уехать из России?

Всегда к этому подвигает то, что как бы в первую очередь занять себя нечем. У меня в этом смысле никогда проблем не было. Действительно, всегда у меня были такие серьезные индустриальные проекты и возможность работать с коллегами и молодежью, которая такая очень талантливая. И мы занимались различными фундаментальными задачами. В этом смысле каких-то таких позывов нет, не было.

Я, кстати, прочитал, вы там работали тоже на команду Формулы-1. В чем заключалась ваша задача?

В чем, собственно, заключалась задача? Я, собственно, когда начинал работать уже с приложениями серьезно, после защиты своей теоретической диссертации, это вот одна из задач, с которой я работал. Сформулируется следующим образом. Есть композитная пластина, которая с боков закрывает болид Формулы-1. Необходимо минимизировать массу с увеличением на прочность. И очень много разных комбинаций, как эти композитные слои расположить, чтобы добиться желаемого. Не очень понятно, какая из комбинаций интуитивно приведет к необходимому результату. Время расчета, если мы занимаемся матмоделированием, такой виртуальной пластины обсчитываем, оцениваем его прочность с помощью метода конечных элементов, он может занимать в то время сутки или что-то такое, то есть тоже очень долго. А время подготовки машины к заезду ограничено. Если делать эксперимент, то это еще дольше, еще и денег стоит. Эксперимент — это изготовить вариант композитной пластины и ее ломать. Поэтому возникает вопрос, что делать. Оказалось, что можно использовать уже накопленные данные, то есть какие-то изготовлены были пластины в предыдущие заезды, что-то попробовал инженер. Получается такая небольшая база данных, то есть некое описание композита и измеренная масса, понятно, это легко считается, и измеренные характеристики прочности. Дальше можно построить, с одной стороны, во-первых, предиктивную модель, которая для новой компоновки этой пластины прогнозирует характеристики, а с другой стороны, используя некие другие алгоритмы, нащупать более эффективный вариант с точки зрения, что масса поменьше, прочность удовлетворяет. Дальше ты получил какого-то кандидата, проверил его, если не удовлетворяет, еще что-то, провел измерение, добавил в базу данных это измерение, модель перестроил, пересчитал, получил нового кандидата и так далее. Вот это вот оказалось, что действительно может быстро сократить перебор. Как я уже сказал, инженеру затруднительно с этим работать, больше чем за парой параметров он не уследит, а здесь параметров описывающих композит порядка десятка. И вот оказалось, что используя такую методику, можно довольно быстро получить улучшение, массу на 10% сократили. Это очень существенно для таких задач.

Интересно. То есть Формула-1 практически как технология в космосе?

На самом деле это такого типа истории. Формула-1, построение самолета – это спорт больших достижений в неком смысле, потому что там оптимизация идет уже на какие-то небольшие проценты, что называется, но при этом вот эти доли процентов и проценты, они могут привести к совершенно существенным изменениям в бизнес-показателях и в качестве самого изделия, поэтому очень сложно этих процентов и долей процентов достичь. Это то, где как раз машинное обучение уже в то время начинало помогать существенно.

Да, на основе больших данных, я так понимаю.

Данные там не всегда были большие, часто не очень большие. Там основная задача в том, что у вас есть, мы говорим о физических объектах, значит, есть какая-то физическая модель, которую этот объект описывает. И возникает вопрос. Физическая модель долго считает, есть еще экспериментальные данные, не совсем точные. Как все это объединить и с помощью машинного обучения спрогнозировать, какой дизайн изделия будет более эффективным на следующем шаге вот этого процесса. Ну и повторить собственные измерения, ну и так далее.

Я рад слышать, что наша инженерная школа продолжает вести работу на самом высоком уровне. А у вас есть какая-то специализация в области искусственного интеллекта?

Ну, конечно, есть. То есть, смотрите, есть классы задач и фундаментальные прикладные, с которыми я как специалист именно работаю больше всего. Если говорить про фундаментальные задачи, это задачи моделирования многообразия. Терминология, может, такая сложная. И генеративные модели. Фактически, о чем идет речь? Данные, допустим, картинки котиков. Все любят котиков. Они содержат много избыточности. Представьте себе котика и там есть пиксели. Картинка состоит из пикселей. Цвет у многих пикселей одинаковый, потому что шерсть котика примерно одноцветная. Получается, что если представить картинку как набор чисел, то там будет очень много примерно одинаковых чисел. Соответственно, возникает вопрос, вот как описать то, что картинки реального мира, это не просто произвольные вот эти числа, произвольные цвета в разнобой, а то, что вот эти числа, они определенным образом связаны с друг другом. Но здесь в какой-то части картинки, если это котик пиксели, на картинке там какого-нибудь там рыжего цвета, а здесь они там серого, а здесь еще какие-нибудь. А если это собачка, то там тоже есть и рыжие, и серые, но немножко в другом месте картинки. Вот как это описать математически? Для этого как раз используются модели многообразия, генеративные модели. Слышали о Кандинском, я думаю, от Сбера, шедевром от Яндекса. Это такие генеративные модели, которые могут генерировать красивые картинки. Понятно, что приложения там немного другие, но математическая теория, которая стоит за вот этим, это одна из тех вещей, которыми я занимаюсь. Если говорить про приложение, то это различные задачи как раз прогнозирования, оптимизации инженерных систем. Это то, с чего я начинал. Ну а сейчас, естественно, много перешли на задачи тоже, в неком смысле, прогнозирования, но уже когда приходится работать с большими потоками текстов, строить для этого мультиагентные системы. В общем, это другая история.
Понятно. Константин Воронцов нам рассказывал, как Google обучал свою систему на основе котов. Они строили свою систему, и с этого началась новая эра развития искусственного интеллекта. Потому что если ты распознал кота, то ты можешь распознать что угодно, я так понимаю.

Ну, в каком-то смысле. Знаете, тут вот коллеги, кто постарше, любят вспоминать. Конечно, за прошедшее время скачок произошел грандиозный, мы всем привыкли уже, а мало кто помнит, что там еще, условно, 20 лет назад, около того, в 2000-х, как я уже сказал, старшие коллеги вспоминают некий конкурс, которых Hewlett Packard устроил в России, выбрал сколько-то команд. Каждой команде дали какие-то деньги на разработку, нужно было фактически по фотографии понять, это тот же человек или не тот же. Что-то такого типа задачи. И в тот момент команда, которая победила, там что-то типа было решение, что если лицо человека повернуто больше чем на 15 градусов, что-то такое, то алгоритм уже не работал. А сейчас в каком угодно состоянии есть черные очки, нет черных очков, головной убор нет, условия освещенности произвольные, и все равно распознают с очень высокой точностью. 99.99. Вот скачок-то как бы. Но вы же понимаете, как это жизни людей уже изменило. И это и камеры на дорогах, и в общем, что угодно. Оплата лицом. Мы не могли представить 20 лет назад, что сейчас можно лицом платить. А сейчас можно.

Да, скоро карточки уйдут в прошлое.

Бумажных денег уже нет, но это уже из другой истории.

Ну да, это уже больше в финансовой сфере. Я так понимаю, Центробанк прогнозирует долю безналичных расчетов в 92%. Это довольно большие показатели даже для западного мира. А чем занимается ваш Центр?

В центре очень много направлений, начиная от таких фундаментальных и заканчивая совершенно прикладными. Фактически, если говорить про фундаментальные исследования, несколько вещей я вам уже рассказал про генеративные модели, моделирование многообразия. Это такие базовые технологии, которые нужны для решения большого количества практических задач, повышения разрешения. Смена домена, допустим, у вас снимок МРТ в одном контрасте, а вы хотите его переделать, как будто он в другом контрасте снят. Есть задача, где это полезно. Вот это все используют вот эти фундаментальные технологии, о которых я говорил. Генеративная модель, модулированная модель. Но понятно, что есть куча других вопросов фундаментальных этой, почему нейросети в принципе работают. Такого достоверного ответа на этот счет нет. Нет хорошей математической теории, которая говорит. Но вот в этом случае будет вот так вот. А в случае каких-то простых моделей статистических уже все известно в статистике, а вот в нейросети нет. Попытка получения хоть каких-то строгих результатов об этом, это одно из направлений тоже фундаментальных, которыми мы занимаемся. Важным направлением сейчас является, например, слияние, объединение моделей физических. или научных, назовем так, и моделей искусственного интеллекта. Потому что модели на основе уравнений дифференциальных и других, которые на гидродинамике, они имеют одни преимущества и другие недостатки. А в случае моделей на основе данных искусственного интеллекта там все наоборот. Если их попытаться объединить, и это в определенных ситуациях удается, можно достичь гораздо более высокого качества прогноза. Из недавних сообщений крупной компании Microsoft, Huawei, прогноз погоды, они уже могут рассчитывать с помощью искусственного интеллекта в некоторых ситуациях даже гораздо точнее, чем классические методы. Это такие фундаментальные направления. Естественно, применяя вот эти фундаментальные, в том числе, наработки, есть много различных уже более прикладных историй. Это и обработка данных дистанционного зондирования, это и аэрофотосъемка данных со спутников. Понятно, что задачи именно прикладных здесь огромное количество. Там, не знаю, банально кадастр проверить, вот как это автоматизировать. Там много таких нетривиальных инженерных моментов, и здесь нужно одновременно и методы обработки изображения, такие современные, потому что данные они там очень непростые. А с другой стороны, всякие инженерные вот эти трюки, чтобы данные из разных источников совместить, посчитать объем данных большой, особенно если по какому-то крупному региону можно оценивать. Вот это одно из важных крупных направлений, которым занимаемся. Языковые модели. Тоже я сам этим сейчас довольно много занимаюсь. Представьте себе, какая прикладная задача стоит такая важная сейчас, это перед исследователями. Допустим, у нас есть документация, которая описывает какие-то нормативы строительные. И там, на самом деле, куча противоречий. И дальше, чтобы как-то автоматизированно из этой документации достать требования и разбить их объект, субъект и отношения между ними. Ну, там, условно, труба должна проходить не менее чем на 2 метра от стены, условно. Чтобы вытащить такое из текста, нужно построить некую систему мультиагентную, состоящую из агентов, которые вот эти большие языковые модели, которые между собой взаимодействуют. Одна там условно из текста достает какие-то кусочки, которые про требования. Другая из этих кусочков текста как раз их разбивает объект-субъект, отношения между ними, ну и так далее. Третья проверяет, что все правильно, информация из текста была получена. Это тоже очень важное направление, которым мы занимаемся. В общем, я бы так сказал, что есть фундаментальные исследования, некоторые примеры перечислил, есть такие наиболее сейчас релевантные прикладные направления, в рамках которых мы и софт разрабатываем, какие-то прототипы, которые бизнесу стараемся внедрить, и есть на этот счет результаты.
Евгений, а можете рассказать, в каком направлении движется развитие искусственного интеллекта? Я правильно понимаю, что сейчас движение идет от развития больших LLM-моделей в сторону более прикладных...

Ну, я бы не сказал.Там на самом деле очень много направлений под направлением, с одной стороны. Конечно, для бизнеса очень важно, что вычлительные мощности, которые требуются просто для inference, подсчета прогноза вот такой языковой модели, они тем не менее все еще значительны. У вас на смартфоне языковой модели пока еще нет. А уже можно было бы какие-то пользы с этого получать. У вас могла бы быть система агентов из таких языковых моделей, и вы говорите в телефон голосом, хочу, заказайте себе билет на поезд, туда-то такое. Предложи варианты. Тебе система предлагает, ну и так далее. Чтобы это было без действительно существенного обращения в интернет, на сервер, не всегда это удобно. вопросы с инфобезом, потому что данные и так далее. Поэтому хочется иметь возможность на таких edge-устройствах запускать языковые модели. Поэтому, конечно, очень много исследований делается для целей сжатия, повышения эффективности расчета, ну и в целом хочется экономить и не тратить такое огромное количество ресурсов, чтобы обучить. Это одна история. С другой стороны, естественно, важно очень, чтобы языковая модель, она была все более и более качественной, чтобы выводы, которые она делала, содержали как можно меньше, лучше вообще не содержали галлюцинаций. В частности, у нее были способности к рассуждениям, к планированию действий. Ну, то есть, это уже не совсем языковая модель, некая агент или система агентов, но в любом случае это то, куда сейчас движутся фундаментальные исследования, уже есть определенные результаты. Еще одно направление важное. Чтобы обучить языковую модель, требуется много примеров от человека. Например, вопрос на ответные пары. Набор вопросов, на них какие-то ответы, комментарии и финальный ответ. Такие датасеты составить, чтобы обучить языковую модель, это долго, дорого. В общем, сплошные затраты. Возникает вопрос, а можно ли языковую модель учить в стиле... Ну, когда-то вот в 15-м году появился AlphaGo. Все помнят, может быть, это система для игры в игру Go. Там были заложены интересные основы того, что можно вот эту машину учить так, чтобы она играла сама собой. То есть берешь... Она до какого-то момента доучилась, ты делаешь как бы ее копию, и она начинает играть сама с собой, и там, если определенным образом организовать этот процесс, то можно существенно повысить качество агента, как он его играет в игру. Вопрос, а можно ли так же делать с языковой моделью? То есть, чтобы эти вопросы на ответные пары, грубо говоря, языковая модель генерировала сама. И потом другая, та же самая языковая модель, по сути, её копия, она на этих вопросно-ответных парах дообучалась. Как сделать так, чтобы вот это всё обучение не выродилось? Потому что если вопросно-ответные пары, они, ну, бред, то и она будет обучаться, тоже на них ничего хорошего не получится. Ответ. Ну вот уже есть первый результат, и это некая надежда, что можно будет обучать, масштабировать языковые модели быстрее, по крайней мере затраты на подготовку данных будут не такие большие.

Интересно, LM-система развивается с такой скоростью. Недавно довольно большой шум произвела новая модель искусственного интеллекта от компании DeepSeek. Она произвела довольно много шума на том же Западе, потому что выяснилось, что при относительно небольших затратах на обучение они смогли достигнуть результата, сопоставимого с чатом G5. Чему научила мир искусственного интеллекта эта история с DeepSeek?

Смотрите, я откачусь чуть-чуть назад. Прокомментировать хотел сначала. В принципе, насчет эволюции. Примерно год-два назад я с коллегами был в Китае. Мы общались с рядом исследовательских центров лаборатории, и в том числе коллеги сказали китайские две вещи. Мы разные вещи обсуждали, как они развиваются и так далее. Вот что было сказано. Первое, что Китай уже научился работать на уровне количества. То есть количество статей, которые они выпускают про фундаментальную основу ИИ, оно уже такое же, как в Америке и больше. А теперь они хотят перейти в качество. Первая мысль. Вторая мысль это про то, что на масштабе нескольких лет они ставят перед собой такую задачу. Это большие языковые модели, генеративные модели, выбрать 10, по-моему, порядка 10 отраслей и отраслевых компаний государственных, где вот эти языковые модели должны быть использованы для каких-то конкретных бизнес-процессов. То есть существенные должны экономия, какие-то действительно важные для компаний юзкейсы и так далее, для развития. И что мы видим, через какое-то время вот сейчас появился DeepSeek, то есть в моем понимании это какой-то такой скачечный скачок. Почему? Потому что с одной стороны, конечно, они очень сильно переиспользовали те самые лучшие вещи, которые уже в литературе есть. Собрали команду талантливых инженеров, которые, я уверен, многие из них имели опыт работы и на Западе, и в каких-то крупных западных компаниях. Собрав эту команду талантливых инженеров, они, естественно, стартовали. Они были не первопроходцами. Они примерно понимали, куда идти, чтобы модель быстро обучить. Это одна история. Но при этом они качества достигли высокого и достаточно быстро не только за счет этого опрео знания, опыта своего, но еще за счет того, что там есть некоторые новинки были в обучении дипсика, в том числе работа с дообучением модели на данных, скажем так, искусственно сгенерированных. Как мы перед этим мы обсуждали, куда движется фундаментальная наука в этой области. И вот за счет вот этих вот новшеств, за счет хороших команд инженеров, действительно удалось быстро получить вот такой качественный скачок. Ну, я, конечно, не очень верю, что там была настолько экономия, как они говорят. Ну, оставим это на совести. Но я думаю, что да, действительно, там было существенно ниже все затраты, чем когда ты первопроходец и что-то делаешь. Это как бы нормально.

Я читал, что OpenAI заявила о том, что команда DeepSeek тренировала свою модель на основе чата GPT.

Это ничему не противоречит. Это как раз то, о чем я вам говорю. Берешь чат GPT, просишь генерировать вопросы на ответные пары, какие-то данные для примера, и стартуешь с этого. Ты быстрее просто достигнешь результата. Почему нет? Если бы я делал сам, я бы так же сделал. Нормальная история. Ну да, этим конечно неприятно, но это их проблемы.
Кстати, я читал историю за DeepSeek. На самом деле там очень серьезные ребята. Там есть фонд с 2016 года, который занимался подготовкой модели, которая предсказывала поведение фондовых рынков. И у них уже были достаточно большие вычислительные мощности. То есть у них было два суперкомпьютера. Видимо на их основе это помогло им как-то.

Скорее всего, я думаю, это совокупность факторов. Всей истории мы не узнаем. В общем, я думаю, что у них есть и финансы, и компьютер у них в большом количестве. Возможно, государство помогло. Собрали хорошую инженерную команду. Она уже в ком-то виде была. Поэтому, в общем, неудивительно.

Да, я читал, что на уровне слухов всей команде DeepSeek теперь запрещено уезжать за пределы Китая.

Даже не могу комментировать. Может быть, да, может, нет.

Можете сказать, почему, если посмотреть на различные сайты бенчмарков, там до сих пор на первых страницах нет российских систем искусственного интеллекта?

Искренне прикомментировать не могу. Не потому, что не хочу как-то коллег, там как-то сказать, что-то про них отрицательное, а просто никогда даже этим вопросом не задавался. Значит что я точно могу сказать: нет возможно здесь какие-то санкционные вещи, по крайней мере в отношении сбера, но когда я смотрел результаты сравнения допустим GigaChat в разрезе стандартных бенчмарков с современными моделями от OpenAI и другими, то GigaChat в этом смысле был на уровне. Ну там, в первых местах, скажем так. Поэтому, вот почему это именно в официальной версии нет, не могу прокомментировать, надо спрашивать коллег. Внутренние бенчмарки, которые показываются, ну на это, не то что даже какие-то секретные информации, а на каких-то вот конференциях, которые Сбер устраивает, там в целом все нормально.

Понятно, но я слышал от разработчиков, что российские модели не пускают в эти бенчмарки по каким-то причинам.

Вполне возможно, допускаю, что там тоже какие-то организационные проблемы есть.

Тем не менее, что касается бенчмарков моделей с использованием русского языка, там, конечно, и Яндекс, и Сбербанк, они все там присутствуют.

Это неудивительно, потому что было бы странно, если бы Яндекс, который русскоязычным сегментом интернета, он его весь скачал уже давно, не может там получить, получает там хорошие результаты.

А вот если посмотреть на DeepSeek, я так понимаю, это полностью открытая система с открытым кодом. Как вы думаете, насколько можно быть уверенным, что у нее нет никаких backdoors?

Я не совсем понимаю, что вы имеете ввиду под открытым кодом. Например, датасет, по которому они его обучали, какие-то такие моменты, они, конечно, полностью не раскрывают. Сама модель, да, действительно можно скачать веса этой модели и использовать для каких-то своих нужд. Это одна история. Если же мы говорим сейчас о самом приложении DeepSeek, вот вы, наверное, говорите о самом приложении DeepSeek. Ну, грубо говоря, у тебя есть смартфон, ты на него скачал приложение, и там что-то спрашиваешь.

Не, ну, приложение, это понятно. Все, что в облаке находится, это, скажем так, практически открыто всему миру. Я вот про те модели, которые можно скачать и использовать внутри периметра, скажем, компании какой-то.

Ну а понимаете, что это такое? Это у вас набор весов. Значит, если вы в ограниченный контур такую модель загрузили, и просто подаете туда информацию, получаете ответ на выходе, как там утечка произойдет? Даже если там вдруг что-то есть.

А как вы считаете, влияют ли ограничения на импорт технологического оборудования на развитие российского рынка в области искусственного интеллекта? в том числе отечественные разработки?

Конечно влияет, потому что количество оборудования, которое можно закупить за те же деньги, оно, говорят, существенно меньше. Потому что, да, действительно есть определенные варианты, как все-таки что-то получать, но это стоит в разы дороже и сроки, и что угодно. Нельзя получить новое. В общем, все это, конечно, печально.

А как обстоят дела у китайцев? Потому что, я так понимаю, им тоже они попали под санкции. Как у них успехи с разработкой собственных ускорителей?

Ну, на самом деле, у них успехи есть. Значит, во-первых, еще на момент примерно года полтора назад, когда я общался с коллегами, они активно соответствующие ускорители от Huawei использовали в... ну, если уж, по крайней мере, не для обучения, потому что важно, что у тебя есть ускорители, но еще важна экосистема, то есть вот это вот программное обеспечение поверх этого, которое удобно для разработки. Понятно, что в случае NVIDIA это разрабатывалось годами, очень давно, огромное количество разработчиков, в общем, это одна история. Но и на тот момент, естественно, в случае тех ускорителей, которые у них были, они там были менее мощные, еще что-то. Но вот этой экосистемы ее не было. И понятно, что разработку в таком случае модели машинного обучения, используя это оборудование, делать затруднительно, ну неудобно, как минимум. А вот все, что касается инференса, то есть когда ты модель уже построил, ты ее переносишь на вот это железо, и сделал из этого железа кластер, и уже применяешь в продакшен, в какой-то бизнес-системе, чтобы делать прогнозы. Это пожалуйста. И, собственно, они таким образом это и развивали. То есть крупные компании инференс делали на вот таком род железе. Это вот первая вещь. Вторая вещь. Не помню сейчас точный источник, но вроде как надежно слышал, где-то читал, что уже появились возможности обучать и делать инференс больших языковых моделей, типа квент, что-то такое, но делать это именно чисто на китайском железе. Поэтому в этом смысле успехи есть. Понятно, что эти карточки, как я уже сказал, отстают, они не такие мощные, как Nvidia, и экосистема, связанная с низкоуровневым кодом, программным обеспеченьем, фреймворками, не такая богатая, не так продуманная и так далее, но тем не менее, работает хотя бы.
Интересно, то есть китайцы все-таки более-менее обеспечивают...

Ну, в целом они в этом смысле на достаточно безопасной стороне дороги, так сказать.

Понятно. Я, насколько я читал, ведущие страны, там США, Китай, они вкладывают достаточно большие деньги в рамки государственных программ в развитие искусственного интеллекта. Как это дело обстоит у нас в России?

В России на этот счет определенные активности государства в этом направлении имеются. Есть проект по искусственному интеллекту, есть несколько вещей про разработку госплатформы, потому что нужно регионам сервисы различные предоставлять. Есть определенные средства, которые лоцированы на центры искусственного интеллекта, ряд центров, который выбран был в крупных ВУЗах и НИИ для того, чтобы фундаментальные разработки вести. В этом смысле определенная активность есть, ситуация улучшилась по сравнению с ситуацией пару лет назад. Коллективы какие-то были организованы, количество статей улучшилось. Это положительная сторона вопроса. Конечно, не хватает, как мы уже обсудили, вычислительных мощностей, некоторой такой устойчивости всей этой системы. Поэтому тут вот будем смотреть.

Да, но мне кажется, что все равно размер инвестиций несподставим.

Ну, это правда.

Да, то есть если у нас идет, видимо, речь о миллиардах рублей, то в том же Китае это десятки миллиардов долларов.

Ну, увы.

Да. А как вы оцениваете риск развития общего искусственного интеллекта? То есть мы все смотрели фильмы про тот же Терминатор.

Я в этом смысле относительно оптимистичен, потому что IT-системы тоже угрозы несут. Мы слышали об ошибках, когда у Boeing была пара катастроф, она была допущена из-за кривой организации процесса, некоторых не очень качественных инженерных решений, чисто вот в IT-части. Поэтому в этом смысле искусственный интеллект — это такой способ автоматизации. И, конечно, там могут быть допущены определенные ошибки, если он внедрен в какие-то критические системы, но это опять-таки вопрос того, как правильным образом IT-системы, их безопасность обеспечивать. Это первый комментарий. Второй комментарий, что искусственный интеллект, в любом случае, будет развиваться. К сожалению, военные никогда не остановятся. Но они же видят некую возможность. Значит, будут использовать. Как вы это запретите? Невозможно. Поэтому тут важно все-таки эти технологии самим развивать. И только тогда ты сможешь процесс возглавить. Что касательно, в целом, появления общего искусственного интеллекта, о котором идет речь, там, как это называется, superintelligence, еще что-то, ну, я не думаю, что на масштабе, там, каких-то сроков, там, не знаю, лет, это будет вот в таком виде, как это в фильмах представляют.

А есть какие-то оценки, когда это произойдет? Ну, не знаю, там, некоторые говорят, в 2040 году, возможно, что-то появится там. Или в 2050.

Понимаете, тут вот, чтобы отвечать на такой вопрос, важно сначала определиться, это будет бесконечный спор, что мы тогда под superintelligence понимаем, это вот система типа тех, которые сейчас языковой модель, которые просто на любые вопросы отвечают, но там какой-то существенной логики внутри нету, по крайней мере в таком стандартном понимании. Просто статистическая система, которая ищет корреляции, так вот, если совсем грубо, в огромном объеме текстов, некой информации, как-то ее искажая и так далее. Возможно, через какое-то время, может 10 лет, сколько-то, не знаю, за счет мультиагентных систем появится нечто более эффективное, но непонятно. В общем, для меня это такого рода оценки, даже не берусь их делать, просто эти системы, они все более и более качественно смогут отвечать на какие-то вопросы, запросы, а вот то, что они начнут людьми управлять, ну …

То есть искусственного интеллекта пока далеко для человеческого сознания?

Ну, я думаю, что да.

Евгений, расскажите, а что вы думаете про... Как, думаете, должен регулироваться искусственный интеллект? Потому что есть две модели, условно, есть американско-китайская, где он практически не регулируется, и есть европейская, где все регулируется достаточно подробно, но пока только в отношении применения искусственного интеллекта в государственной сфере. Как вы думаете, какой подход должна использовать Россия?

Ну, понимаете, в итоге закончится с тем, что в Европе это будет не развито, а в США и в Китае будет развито. В итоге у них будет преимущество. Как я уже сказал, условных там военных и так далее, их не остановить. Они в любом случае, будет там это регулировать, не будет, будет это делать. Поэтому здесь важно нисколько регулировать, жестко запрещать. Нет. Здесь важно с широко открытыми глазами понимать, какие здесь риски есть, и простых граждан от этого стараться оградить. А развивать это просто необходимо, потому что не будешь развивать ты, развивают другие.

Интересно. А, кстати, у меня такой вопрос, как у пользователя всех вот этих приложений. Я так понимаю, там важный параметр такой, это так называемые токены. Что это такое? Ну вот, я так понимаю, что когда ты поиспользуешь приложение типа ChatGPT, там у него есть какой-то определенный набор токенов. Это своего рода такая валюта в приложениях искусственного интеллекта. Их набор как бы ограничен.

Я не совсем понимаю, о чем вы конкретно сейчас имеете в виду. В случае языковых моделей, токены это скорее элементарный кусочек речи, скажем так. И соответственно, когда ты обрабатываешь большой текст, его можно разбить на какое-то количество элементарных кусочков. Просто надо как-то оценивать, сколько ты текста обработал. Ну вот, соответственно, оценивают по количеству этих элементарных кусочков.

У них сейчас у всех эти приложения есть определенные ограничения, то есть ты не можешь книгу толкать, максимум статью какую-то.

А это другая история, это контекстное окно, грубо говоря. У тебя в памяти модели, она не может в неком смысле обработать, она может и обработать чисто механически, но информации больше, чем из текста определенной величины, она точно не будет учтена в последующем ответе на запрос. Если ты книгу засунешь, то по мере ее обработки, прочитывания, языковая модель забудет о том, что было в начале. Поэтому она не будет учитывать информацию изначально, при ответе на вопрос по книге.

Я, кстати, вспомнил про распознавание лиц. Есть такие различные футболки, которые используются, пиксельные рисунки, которые, типа, запутывает искусственный интеллект. Они работают или это всё?

Ну, я думаю так, что это как повезёт. В том смысле, что это как с системой противовоздушной обороны. Когда-то срабатывает, когда-то нет. Так и здесь. У тебя есть какая-то моделька, какая-то простенькая, ну, сработает. А если какая-то более сложная, ну, не сработает.

А кстати, про вот эти всякие дроны западные некоторые производители говорят о том, что они начали использовать технологию искусственного интеллекта, но при этом у них достаточно компактное устройство. Мне кажется, они свистят, да?

Нет, ну почему же? На самом деле там речь не идет о таком искусственном интеллекте, что он автономный и так далее. Там в первую очередь идет вещь о простейших историях, таких когда там стоит маленький компьютер, типа рок-чип условно там, не знаю. Система просто может захватывать цель и ее вести. Самая простейшая вещь. Такие алгоритмы и не раньше были, просто сейчас их делать можно быстрее, а не точнее. За счет того, что это не какой-то математический алгоритм на каких-то простых принципах, а это нейросеть небольшая. Которая вот на таком вычислительном устройстве может работать. Это первое, что, естественно, инженеры делают, чтобы соответствующее устройство было более эффективным, скажем так.

Да, как говорится, начали с котов, а закончили...

Ну это, слушайте, вы вопросы задавали, я их просто комментирую.

Понятно. Ну что ж, я надеюсь, что искусственный интеллект будет все-таки применяться в мирных целях для развития человеческой цивилизации, а не во вред ему. На этом я бы хотел завершить нашу встречу. Призываю всех ставить лайки, подписываться на наш канал. В нашем эфире был Евгений Владимирович Бурнаев, один из ведущих российских специалистов в области искусственного интеллекта. Спасибо вам.

Спасибо.
YouTube канал:

Аудио подкасты:
Made on
Tilda