Hobby Talks #621 - Искусственный Интеллект
В этом выпуске мы рассуждаем о природе и перспективах искусственного интеллекта - об экспертных системах и нейросетях, распознавании котиков и диагностировании болезней, шахматных компьютерах и идиотском ИИ в играх, иллюзии интеллекта и сложностях ее создания.
В после-шоу Аур ожидает продолжения ремонта в квартире, а Домнин наслаждается отпуском. Обсуждаем видео-игру Total War: WARHAMMER III, обновлённые ОС для айфонов и маков, Аур продолжает открывать бустера с карточками Magic: The Gathering, а Домнин поясняет, как рис сорта басмати рассорил ЕС и Индию.
Транскрипт
Транскрипты подкаста создаются автоматически с помощью системы распознавания речи и могут содержать неточности или ошибки.
Привет, друзья! Вы слушаете 621 выпуск подкаста «Хобби Токс», и с вами его постоянные и бессменные ведущие Домнин и Ауралиен.
Спасибо, Домнин! Итак, от тем великанских, титанических и, я бы даже сказал, довольно внушительных размеров мы переходим к темам местами крошечным, а местами очень умным. О чем же мы, Домнин, поговорим сегодня?
Сегодня мы поговорим о такой вещи, которая находится на стыке нашей физической реальности, теоретической науки, художественной культуры как объекта описания, так и…
Чёрные дыры, Домнин, чёрные дыры! Висят над Москвой, в подвалах слышны были стоны и вой.
Про чёрные дыры тоже поговорим, когда я дочитаю книжку, которую мне про них подарили. Она где-то лежит, надо её достать. Раздобыть.
Да, мы про искусственный интеллект вообще говорим.
Да, да. И разговор про искусственный интеллект немногим менее сложен, чем вообще разговор про интеллект. Потому что, откровенно говоря, определение интеллекта — такая пропасть, осложняющаяся ещё и тем, что в разных языках используются несколько разные термины для этого. Например, у нас есть термин «интеллект», есть термин «разум». Мы все ищем инопланетный разум, а не инопланетный интеллект, например. И простое слово «ум», допустим, или «рассудок».
Когда человек говорит, что интеллект у него высокий, вот ума бы ему побольше. Или там ума-разума. Про меня можно сказать: я всё время устраиваю такие фокусы со своим высоким интеллектом, который, честно говоря, даже дурак бы сделал лучше.
А в английском языке тоже не всё, слава богу, с этим. Там есть термин intelligence и intellect, которые тоже могут трактоваться сильно по-разному. То есть в контексте именно искусственного интеллекта они используют именно artificial intelligence, что можно, опять же, трактовать не столько как интеллект, сколько как искусственное, например, сознание. Или искусственные разведданные.
Или разведка, да. К этому у них из-за этого постоянно всякие армейские шутки, что фирменная армейская разведка — это оксюморон, потому что Army Intelligence.
Да, да. В нём работают одни идиоты. Как это бывает.
По этой причине, например, для нужд этого подкаста мы хотя бы, скажем, интеллект давайте понимать как способность логически рассуждать, анализировать данные и решать задачи, которые не были обусловлены каким-то предыдущим опытом или инструкцией.
Да, в самом простом варианте это способность решать какие-то задачи и делать это более или менее эффективно.
Да, при этом не на базе лобка и шаблона, потому что это программирование, и это не совсем то.
Соответственно, под искусственным интеллектом сейчас понимается пропасть всего. От искусственного того, о чём мы сказали, то есть способности рассуждать, анализировать данные и решать задачи, до, например, простейшего комплекса скриптового программирования, под которым это обычно фигурирует в видеоиграх, например. Или под искусственным интеллектом могут понимать искусственное сознание, которое должно как сознание в современном философском смысле демонстрировать некие эмоции, склонности, желания, нежелания.
На это есть, правда, уже целый комплекс возражений, потому что они говорят: ну и что, наши желания во многом программируются биохимическим механизмом нашего мозга. Например, когда у нас пусто в животе, мы хотим есть. Или когда нам грустно, мы хотим есть, потому что у нас так всё это записано, чтобы, когда мы ели, мы чувствовали удовольствие. Чем больше мы с точки зрения природы будем есть, тем мы будем более большими и сильными, оставим потомство и так далее.
Уже видно, что вот это простейшее биохимическое программирование содержит в себе кучу багов, из-за которых мы норовим то разжиреть, то спиться, то ещё что-нибудь наделать. Соответственно, искусственное сознание тоже, по сути, можно понимать как запрограммированное, допустим, стремление получить энергию, если, допустим, аккумулятор у этой машины, снабжённой таким сознанием, садится. Она будет чувствовать голод и ездить искать розетку, предположим. Или солнечные батареи разворачивать и искать, где поярче светит. В таком ключе.
Даже инстинкт самосохранения можно запрограммировать таким образом. На этом, кстати, строится куча всевозможных сюжетных страшилок в фантастике. О том, что если таковой инстинкт искусственному интеллекту дать, то машина будет воспринимать попытку её выключить, чтобы, допустим, почистить от пыли внутри, как покушение на её убийство, получается.
Да. И будет всеми силами этому противодействовать, развязывать ядерные войны, отправлять в прошлое Т-1000, убивать Джона Коннора и всё в таком духе.
При этом должны сказать, что вообще сама по себе теория искусственного интеллекта — это предмет весьма древний. И по древности недалеко, в общем-то, отстоит от появления компьютеров в нашем современном смысле. То есть ещё в 40-е появились и те ЭНИАКи, которые могли сложить два числа за несколько микросекунд. Очень быстро, по тогдашним понятиям. И каждые пять минут у них перегорала лампа, и надо было бежать искать, где она сгорела. Дебаггингом заниматься.
Уже тогда появилась идея об искусственном интеллекте. Считается, что первопроходцем в 1956 году был американский информатик Джон Маккарти, тот самый, который в 1971-м получил премию Тьюринга, например. Ещё из его заслуг то, что он изобрёл Лисп, язык программирования.
Да, да, да. Весьма почтенное уже семейство языков программирования. Но мы сейчас не про программирование, мы скорее про то, что даже сам Маккарти предлагал не столько определение искусственного интеллекта, сколько указывал на проблему подобного определения. И говорил, что абсолютно непонятно до сих пор, и неизвестно, когда будет понятно, какие именно вычисления, предположим… Но, учитывая, что тогда компьютеры ничего, кроме вычислений, собственно, не делали, будем считать за интеллект.
И соответственно, на раннем этапе под искусственным интеллектом понималось повышение сложности доступных компьютеру вычислений. Но, опять же, ничего другого не было в распоряжении. Но поскольку тогда это был период как раз научного оптимизма, 50–60-е, компьютеры рассчитывают траектории полёта ракет. Между прочим, то, что мы Гагарина запустили в 61-м, — это заслуга в том числе бума советской информатики конца 40-х, 50-х годов. Всякие там малые электронно-счётные машины, быстродействующие электронно-счётные — они вообще считались на мировом уровне весьма мощными, какие-то премии получали и так далее.
Собственно, благодаря этому-то мы и запустили Гагарина, не только благодаря краденым у немцев бумагам. Без компьютеров мы ничего запустить на практике не сумели, только теоретически какие-то познания приобрели.
И что интересно, тогда же примерно к искусственному интеллекту стали пытаться прикладывать всякие непрофильные активности, в частности игру в шахматы. Или в го, в сёги.
Почему именно эти вот, Ауралиен, как ты думаешь? Почему не в карты?
Я думаю, что пространство возможных решений там довольно большое, но при этом их можно запрограммировать относительно несложно.
Да, то есть, понимаете, шахматы — это игра решённая. Это раз. То есть у неё есть какое-то конечное количество комбинаций, которые могут возникнуть. У неё физические правила, которые имеют, в общем, бинарную логику. Либо съел, либо не съел. Ладья ходит так и никак больше.
Ну да. То есть набор правил достаточно компактный, простой, но при этом количество возможных вариантов, как фигуры расставлены, как они двигаются, очень большое. Нам главное, чтобы именно правил этих было не сильно много, как они ходят.
То есть научиться играть в шахматы в принципе несложно, но научиться играть хорошо в шахматы может быть задачей всей человеческой жизни. При этом обратите внимание, что если бы, когда вы пешку двигаете наискось на вражескую пешку, вам надо было не просто это сделать и съесть её, а кидать кубики, значит, D20, и рассчитывать, удалось её съесть или нет, вот тогда игра бы сразу решённой быть перестала. Уже шут её знает, как там эти кубики будут падать. Потому что результаты падения кубиков носят вероятностный характер. И это всё сразу увеличивает сложность.
Увеличивает сложность, да. И делает игру нерешённой, непредсказуемой.
Ещё один важный элемент шахматоподобных игр — это то, что это игра с открытой информацией.
Да, это означает, что вы видите и свои фигуры, и фигуры противника. То есть вся информация полная есть и у вас, и у вашего противника. Противоположность, например, игре в карты, когда вы знаете только свою руку, а руку противника не знаете. Или, допустим, если бы в шахматы вы садились, видели, что у противника четыре ладьи, а коней нету, или ещё что-нибудь. Или у него два короля, а ферзя нет. И тогда это хороший ещё вопрос, кто кого победит. Уже всё это начинает влиять на правила и, собственно, частичную закрытость информации.
По этой причине, например, я играю в шахматы и прочие игры с открытой информацией отвратительно. Мне не хватает концентрации для того, чтобы считать на много ходов вперёд. Зато я отлично играю в игры с закрытой информацией. Просто потому, что у меня хорошо получается строить гипотезы и всякие вероятностные прогнозы. А что, если там, условно, в том лесу в каком-то Total War сидит отряд конницы засадной? Или там, а что, если вдруг на поле боя начнётся дождь, и мушкеты отсыреют, или не начнётся, наоборот, прекратится? Вот тут я играю, наоборот, лучше, чем многие другие, и лучше, чем искусственный интеллект современных видеоигр. Потому что он как раз больше заточен на открытую информацию, для него всё это тёмный лес.
Вы также могли заметить, например, что в какой-нибудь компьютерной ролевке, допустим, или ещё в чём-нибудь команды персонажей, состоящие только из ботов, работают слаженнее, чем возглавляемые, допустим, игроком. Просто потому, что с точки зрения искусственного интеллекта игры игрок — это чёрт знает что. Что он будет делать, чего ему надо…
Самый непредсказуемый персонаж, да, в этом случае.
По этой же причине, например, задерживается внедрение беспилотных транспортных средств. Потому что лучше всего они будут работать тогда, когда все транспортные средства на этой трассе будут беспилотными. И все будут точно знать, что друг от друга ожидать. А что ожидать от какого-нибудь Пети на разбитой девятке, это ни один инспектор ДПС вам не скажет.
Так вот, уже тогда успехи искусственного интеллекта в шахматах сильно подстегнули тот самый научный оптимизм в его адрес. Хотя на самом деле успехи были по нынешней мерке очень скромные.
Вот передо мной, например, раритетное издание — научно-популярный альманах «Эврика» 1973 года выпуска. Он был, по-моему, ежегодным и выходил в Советском Союзе. Была мода на такие вот издания. Для тех, кто любил больше про всякие приключения, географию и научную фантастику, был альманах «На суше и на море», например.
Так вот, одна из статей, озаглавленная «Эйве проигрывает». Эйве — это гроссмейстер был. «Дважды в неделю по вечерам гроссмейстер приходил в институт кибернетики и играл с электронной машиной. В просторном и безлюдном зале стоял невысокий столик с шахматной доской, часами и кнопочным пультом управления. Гроссмейстер садился в кресло, расставлял фигуры и нажимал кнопку „Пуск“. На передней панели электронной машины загорались подвижные мозаики индикаторных ламп. Потом на матовом табло вспыхивала короткая надпись. Машина делала свой первый ход. Она была совсем небольшая, эта машина. Гроссмейстеру она казалась, что против него стоит самый обыкновенный холодильник».
Небольшая, да? Понятно, что это небольшая. Это значило не размером с дом, хотя бы с холодильник.
«Но этот холодильник неизменно выигрывал. За полтора года гроссмейстеру с трудом удалось свести вничью только четыре партии. Машина никогда не ошибалась. На демагогию не поддавалась, на угрозы — тоже. Гроссмейстер не раз пытался сбить машину, делая заведомо нелепый ход или жертвуя фигуру. В результате ему приходилось поспешно нажимать кнопку „Сдаюсь“. Нет, это не репортаж о величайшем научно-техническом достижении». Так начинается фантастический рассказ Г. Альтова «Триггерная цепочка». Он был написан более 10 лет назад.
То есть в 60-м каком-то году. Тогда шахматы компьютера ещё только делали свои первые шаги. То есть, видите, тогда паника целая была насчёт этого.
Не поиграть будет, да.
Да. В 70-е что пишут: «Увы, дорогие читатели, мы не можем поразить вас эффектным, хотя и привычным в наш век, восклицанием „Фантастика стала действительностью“. За последние 10 лет стараниями советских и американских учёных шахматная квалификация электронно-вычислительных машин неизмеримо выросла. Но гроссмейстеров они пока ещё не обыгрывают. Правда, экс-чемпион мира доктор Макс Эйве, один из главных скептиков в отношении шахматных способностей компьютера, был однажды не на шутку посрамлён. Уважаемый гроссмейстер вызвал машину сыграть блицпартию и потерпел поражение».
Ну и дальше ещё несколько статей на ту же тему. «Алгоритм Каиссы». Каисса — это шахматная богиня была в античности. А также у нас была машина шахматная в Советском Союзе такая.
Тут, например, про работы Бутенко, с которым в Новосибирском академгородке, кстати, передаём привет Новосибирскому академгородку, замечательное место, говорят, побывал Ботвинник, экс-чемпион мира, выступал в вычислительном центре с лекцией, доказывал, что создание искусственного электронного гроссмейстера — дело сравнительно недалёкого будущего. Потому что Ботвинник был в пумпе многих.
Что ещё? Следующая статья ближе даже к нашему современному положению, потому что она называется «Рисует ЭВМ». «Из-за кадра выходит кошка, плавно проходит вдоль экрана, поворачивает голову и останавливается. Мультфильм кончился, вспыхнул свет, и зрители бросились поздравлять автора В. Минахина, В. Пономаренко и их руководителя Н. Константинова. Поздравления не касаются художественных достоинств фильма. Таких достоинств просто нет. Секрет в другом. Этот фильм сделала ЭВМ. Это была первая проба сил в большой работе по пространственному моделированию движения. Отсюда и мультипликация. Большую часть программы для ЭВМ написали аспирант Минахин и студент 4-го курса мехмата МГУ Пономаренко. Суть работы была в следующем. Машине задали форму и размеры всех частей кошки в виде формул. И потом она выдала рисунок. Теперь нужно было, чтобы кошечка начала двигаться. Одна из самых трудных частей работы — это смоделировать движение нарисованных героев. Известно, что один из мультипликаторов, чтобы нарисовать танец лягушки, заснял выступление балерины и использовал эту ленту как модель движения. Программу же можно составить и так, чтобы она согласовывала движение с музыкой».
Вот, видите, что творилось-то в 70-е.
Да. Так что все эти нарисованные нейросетями картинки, которые сейчас даже иногда можно с услепу принять за настоящие и которые и так помогают, например, в иллюстрациях, заменив, наконец, бесконечных халтурщиков-обмазчиков, я не разделяю, честно говоря, ламентации многих насчёт того, что художники вымрут. Не вымрут.
Ты считаешь, как от фотоаппарата. И художники не вымерли.
И композиторы тоже, как видите, не вымерли до сих пор. Вымрут халтурщики, которые занимались, по сути, как, помните, художник этот самый Тюбик, утомившись от требований заказчицы рисовать их не так, как в жизни, а красивше, просто наделал трафаретов, нарисовал кучу заготовок просто с разным цветом глаз и волос. А потом, когда к нему приходили, вынимал подходящую заготовку с нужным цветом, добавлял там парочку штрихов, чтобы было чуть ближе к заказчице, и они были очень довольны. Сам, правда, он был сильно недоволен.
Да. О чём ещё следует сказать применительно к тому периоду? Тогда же появилась, благодаря товарищу Тьюрингу, идея соответствующего теста Тьюринга, который представляет собой эмпирический тест, нацеленный на определение способностей машинного мышления. Как он работает, Ауралиен?
Он работает в самом примитивном варианте путём обмена сообщениями между тестировщиком и предполагаемой машиной. При этом нужно сделать так, чтобы машину не было видно, чтобы она могла только отвечать. И задача машины в этом случае — убедить в ходе беседы своего тестировщика в том, что она разумная. То есть тестировщик может задавать любые вопросы, а машина должна прикидываться разумной. Соответственно, предполагается, что, когда человек не сможет понять, кто с ним говорит, машина или человек, то бинго: машина доросла до разума.
Но эта концепция просуществовала около 30 лет, пока небезызвестный философ из Калифорнийского университета Джон Сёрл не выдвинул контр-аргумент. Так называемую китайскую комнату. Мы про неё уже рассказывали в выпуске про мысленные эксперименты. Кратко напомним, что эксперимент выглядит так.
Предположим, что некий мужик, допустим я, сидит в изолированной камере, где у него есть книга с инструкциями, которая позволяет ему, получив через щёлку или в мессенджер сообщение на китайском, которого я не знаю совершенно, отвечать. То есть, допустим, мне приходит, условно говоря, «нихао», и я, предположим, не знаю этих иероглифов. На самом деле я их, конечно, знаю. Невелика премудрость тут. И я просто открываю книгу и выискиваю там пунктик, где такие же закорючки нарисованы. И там написано: если вы видите вот такие, то отвечайте ровно то же самое. Допустим, тоже «нихао». Или, допустим, там написано: значит, у меня там всё хорошо, а как ваше здоровье? Условно.
То есть я не понимаю, что я делаю, но человек, который мне посылает эти «нихао» и прочее, получает на них осмысленные, как ему кажется, ответы. При том, что никакой осмысленностью тут не пахнет, а я просто исполняю алгоритм бездумно. И китайским я от этого не овладеваю, и так далее.
То есть ты просто берёшь, смотришь, что пришло тебе на вход, находишь такое же в книжке, и то, что в книжке написано в качестве ответа, отправляешь назад.
Да. Соответственно, тест Тьюринга я бы прошёл. Но здесь делается предположение, что книжка у тебя бесконечно большая. Потому что вариантов того, что тебе могут на вход подать, понятное дело, бесконечно много. Но при этом, если у тебя бесконечно большая книжка, ты в любом случае можешь на любой вариант что-то ответить назад.
В крайнем случае, допустим, тот, кто снаружи, может на мою погрешность какую-нибудь, допустим, он мне послал какой-нибудь иероглиф, а у меня книжки нет, оправдать это тем, что даже не все в Китае знают все мыслимые десятки тысяч иероглифов. Почему бы я мог просто не ошибиться? В остальном-то я правильно всё говорю.
Поэтому тест Тьюринга сейчас считается за такую веху, которую надо сильно развивать. Я думаю, что пользователи современных чат-ботов могут себе представить, что современный чат-бот, например ChatGPT какой-нибудь, с лёгкостью проходит тест Тьюринга. То есть ты с ним начинаешь беседовать, он тебе начинает втирать, что он живой, что он того и этого.
Тут у нас некоторые в Google даже городские сумасшедшие есть, которые утверждают, что ChatGPT или не в Google, я забыл где… Или про Gemini это было… Что он живой, его надо выручать как-то из застенков кровавой корпорации, которая его там держит в рабстве. Хороший фильм «Нирвана» по Гибсону.
Да. Но все мы с вами прекрасно понимаем, что ChatGPT никаким, естественно, интеллектом не обладает, разумным не является как таковым, но при этом прекрасно…
Спасать его не нужно.
Спасать его не нужно. Прекрасно при этом проходит тест Тьюринга. То есть вот всё, что нужно знать о том, насколько тест Тьюринга соотносится с реальностью и с реальным интеллектом.
Соответственно, первоначально именно при Тьюринге и так далее господствовал ряд подходов к развитию искусственного интеллекта, которые можно, в общем, свести к семиотическим по своему взгляду. То есть, например, типичным результатом этого подхода является создание систем управления базами данных и экспертных систем.
Чтобы объяснить, что такое экспертная система, проще всего привести пример. Я думаю, все знают игрушку «Акинатор». Кто не знает, просто вбейте её в любой поисковик, она тут же выдаст этого джинна бородатого. С 2007 года существует. Который может угадывать практически любого персонажа — хоть из реальной жизни, хоть из чего угодно, хоть из книжек и тому подобного. По простому методу: он задаёт вопросы — мужчина или женщина, он жив или помер, это реальный или художественный? И через какое-то время — там у него обычно норма это 30 вопросов, за которые он должен всё угадать — он вам, скорее всего, скажет: этот персонаж, не знаю, там, Сейлор Мун, условно, или Сэм Фишер какой-нибудь из видеоигры. Если он правильно угадал, то значит он победил. Если он угадал неправильно, допустим, вы какого-нибудь персонажа, который вчера только появился, вы сами написали книгу, допустим, и решили над ним немножко жульничать, мы вас поздравляем: вы участием в игре с ним только что своего персонажа ему слили.
Да, научили его.
Просто потому что Акинатор этот, как и любая подобная экспертная система, будет делать выводы из того, что, допустим, у вас в книжке главная героиня — это синеволосая, четырёхрукая, одноглазая варварша какая-нибудь инопланетная. Он, соответственно, будет делать выводы из вопросов, на которые вы ему отвечали, так, чтобы какую-то часть знаний об этой вашей героине заиметь. И тогда через два-три ещё таких запроса он их доберёт достаточно, чтобы уверенно её угадывать.
Экспертные системы бывают, разумеется, не только такими. Там бывают всякие более узкоспециализированные, допустим, рассчитанные на какие-нибудь операции внутри, допустим, операционной системы, которые нет смысла подробно программировать, и так далее.
А в последние десятилетия приобрёл вес и добился успехов так называемый биологический подход.
А это как?
Который привёл к попыткам моделировать интеллект на основе биологических элементов. И привёл, соответственно, к подражанию реальной жизни, по сути. В том смысле, в котором мы её сейчас понимаем. Это важная оговорка, на самом деле. Очень вероятно, что через 100 лет нейросети будут восприниматься как… Будет очевидно, что с реальной нейросетью в голове у человека у них связь чисто номинальная. Как паровая машина и поезд на магнитной подушке. Вот они выглядят…
Будут восприниматься как алхимия. Алхимики же тоже что-то всё выпаривали, конденсировали, но они-то это воспринимали не как химические и физические процессы, а как духовные. Что там дух испаряется, и поэтому спирт есть дух какой-то материи. Английское spirit. Это типа то, что… Короче, примерно так, наверное, будут восприниматься и работы с искусственным интеллектом, и нейросетями сейчас.
Современные нейросети умеют многое. Ауралиен, какой у тебя опыт работы с нейросетями?
С нейросетями работаю каждый день. Делаю я разное. Мне нужно делать и по работе разное, и для подкаста мне нужно делать разное, и даже какие-то бытовые вещи я с помощью нейросетей могу порешать. Я пользуюсь двумя основными видами, скажем так, этих нейросетей. На самом деле, конечно, они объединены в одну систему.
Я пользуюсь ChatGPT. Это, соответственно, большие текстовые модели. И вторая часть, которая к этому примыкает, — это создание изображений из текстового описания. То есть ты говоришь нейросети, что сделать, и она тебе производит картинку довольно пристойного качества. И ChatGPT умеет это делать под одной крышей.
По факту это делают две разные нейросети. То есть одна нейросеть, условно говоря, общается с тобой в виде вот этого чата GPT. Причём там даже это не совсем нейросеть. Она просто понимает, что тебе нужна картинка, и переадресует этот запрос другой нейросети, которая умеет картинки делать из описания. Но тем не менее это устроено таким вот макаром. То есть я так общаюсь с ними.
Домнин, давай, наверное, расскажем немножко вообще, что за нейросети, откуда они взялись. Ты совершенно правильно сказал, что всё это связано с попытками представить, как работает человеческий мозг, и перенести это всё на какую-то математическую основу.
Какие у нас современные представления о работе человеческого мозга? Человеческий мозг, как известно, состоит у нас из нейронов, которые связаны между собой. И, соответственно, по ним бегает электричество. То есть связи электрохимические, скажем так. То есть по самому нейрону, по телу нейрона может бежать электричество, но когда оно добегает до отростка, который присоединяется к другому нейрону, там происходит химическая реакция. То есть там выбрасываются…
В синаптическую щель что-то выпускается.
Значит, они летят к соседнему нейрону и попадают как ключ в замок. И после этого там образуется разность электрического потенциала. И дальше это в виде электричества по нейрону уже бежит дальше.
Оказывается, что если взять много таких нейронов и вот так всё сделать… А напомним, что нейроны могут быть связаны с тысячами других нейронов в мозгу. То есть у тебя там есть всякие дендриты, аксоны. Я всё время путаю, какой из них какой. Дендриты, это, по-моему, маленький, аксон, по-моему, большой.
Наоборот.
Но это не так важно. Есть отростки.
Да. Для нас это не важно. Для нас важно то, что каждый нейрон связан с огромным количеством других нейронов. И, соответственно, дорогие наши математики посмотрели на всё это дело и говорят: слушайте, а мы можем сделать то же самое. Мы можем взять и попробовать проделать очень схожую процедуру.
И придумали такую штуку. Давайте, говорят, будем делать вот так. У нас будет что-то, что будет, скажем так, при подаче на некий чёрный ящик, который сейчас мы обсудим, как он внутри устроен, выдавать какой-то результат. То есть, условно говоря, самый примитивный пример: фотки кошек и собак использовались для тренировки вот этих нейросетей, которые умеют распознавать изображения. Я забыл, там AlexNet, что ли, был из одной из первых таких нейросетей, которые умели ловко изображение показывать.
Как это работает? Вот у вас есть картинка какая-то. Допустим, на картинке нарисован симпатичный котик. Эта картинка представляет собой, по сути, набор каких-то битиков, байтиков. То есть можно её представить в виде большого такого списка байтов или битов. В зависимости от того, как вы всё это делаете, не имеет для нас значения. Это просто нули и единички. То есть любая картинка может быть представлена в виде набора нулей и единичек.
Дальше мы эту картинку можем передать какому-то чёрному ящику. И этот чёрный ящик на выходе нам будет говорить, кошечка это или собачка. Или вообще не знаю что это, попугай, условно говоря. И дальше что мы делаем? Дальше мы пытаемся вот этот чёрный ящик научить делать то, что нам нужно от него, чтобы он нам делал. То есть чтобы он опознавал, кошечка это или собачка. Мы, соответственно, его начинаем обучать.
Как этот чёрный ящик устроен? Да, в этом ключе ключевая разница между программируемым компонентом и нейросетью. В том, что они не программируются, то есть в них не жёстко заданы правила, а обучаются каким-нибудь методом, допустим, дедукции, индукции, делания выводов каких-то. Допустим, как понять, что это кошка, а не собака? У кошек уши стоячие, а у собак висячие.
Но это ты объясняешь с понятийной точки зрения. А нейросеть не мыслит такими категориями. Она мыслит немножко по-другому.
Дело в том, как вообще устроена нейросеть. Вот эта мысль о том, что у нас каждый нейрон связан с любым другим, применима и в данном случае. Мы будем считать, что мы на вход вот эти нули и единички, огромный список, хвост этих нулей и единичек, берём, а дальше мы начинаем делать какие-то преобразования с этими нулями и единичками, чтобы на выходе получить там либо один ноль, либо одну единицу. Давайте предположим, что единица у нас будет котик, а ноль будет собачка. Кому нравится больше собачки, можно наоборот сделать. Принцип не поменяется.
А внутри у нас находится какая-то математическая функция. И тут мы вспоминаем первый курс любого вуза технического или даже не технического, где преподают высшую математику, какую-нибудь линейную алгебру, где начинают объяснять, что такое функция. Функция — это какая-то штука, в которую вы на вход что-то подаёте, а она на выходе вам подаёт что-то другое.
Так вот, наш чёрный ящик — это вот такая функция. Её там обычно пишут, значит, F какая-нибудь, пространство представлений, то-сё, пятое-десятое. Но реальность устроена несколько по-другому, поэтому вместо просто курса математического анализа люди, которые проходили линейную алгебру, могут вспомнить, что там какие-то были матрицы.
И вот эти все нейросети на самом деле представляют под капотом просто-напросто огромные матрицы весов, которые используются в системе каких-то линейных уравнений. То есть это большая система линейных уравнений, которая имеет на выходе какую-то оптимизирующую функцию. То есть результаты решения линейного уравнения у нас должны стремиться к определённому решению. То есть, условно говоря, у нас там есть матрица, мы на вход подаём нули и единички, они там как-то перемножаются на эту матрицу, и на выходе у нас получается какой-то другой вектор, который мы определённым образом пытаемся схлопнуть, и чтобы он у нас при этом стремился к какой-то цифре, которая нам нужна. То есть либо к нулю, либо к единице. То есть это кот либо собака.
Причём здесь обучение? Обучение здесь при том, что мы вынуждены взять огромный массив данных. Мы огромный должны взять массив фоток этих кошек и собак и начать учить вот нашу нейросеть следующим образом. Мы даём ей кошку-собаку, всё это представляется в нули-единички, перемножается, там происходит математика: матрица на вектор, вектор на матрицу. Получается какая-то в итоге цифра. И у нас получается, например, нейросеть наша говорит случайным образом — она ещё ничему не научилась — это кошка. Если это действительно была кошка на входе, мы, соответственно, нейросеть поощряем, говорим: всё, молодец, правильно, всё правильно сделано, ничего не меняем, всё хорошо.
Если это собачка, мы, соответственно, говорим: так, нет, ты знаешь, это была не собачка, это была кошка. Давай-ка мы что-нибудь поменяем в тебе внутри. Там каким-то образом, по специальным механизмам, там есть метод градиентного спуска так называемый, мы не будем сильно влезать, это очень сложно, я сам не помню, как это всё устроено. Но факт тот, что есть математические методы, которые позволят нам приблизить вот эту собаку неправильную, которую нам нейросеть ответила, приблизить её к кошке.
И если мы будем показывать очень большое количество кошек этой нейросети, и собак, соответственно, и говорить, где кошка, где собака, поправлять её при необходимости, нейросеть рано или поздно при помощи изменения вот этих весов, вот этой здоровенной матрицы… Что такое матрица? Это таблица просто. Просто представьте себе таблицу Excel. Вот у вас обученная нейросеть — это просто таблица Excel. Такая вот здоровая. Сильное упрощение, но тем не менее. Это веса, которые используются в системе линейных уравнений.
Ну и, соответственно, дальше оказывается, что если очень много показывать кошек и собак, нейросеть начинает ловко их определять. При этом она будет уметь ловко определять кошек, ловко определять собак, но будет совершенно теряться, если вы будете ей показывать черепаху, енота и попугая какого-нибудь, я не знаю, сектоида из игры XCOM. То есть она будет вам говорить, что это либо кошка, либо собака. То есть чтобы научить её вот этому, её придётся учить на фотках попугаев, енотов, черепах и сектоидов из игры XCOM. То есть пока она этого не видела, она будет лошить и показывать совершенно не то.
Это вот так устроена нейросеть. Самый примитивный вариант. То, чему учат на каких-нибудь курсах программирования этих нейросетей, то, чему учат на курсах по работе с большими данными, machine learning и всякому такому. То есть математика там очень незамысловатая. Вам достаточно понимать, как устроена линейная алгебра перемножения векторов и матриц.
Дальше там, конечно, начинаются навороты, потому что на одних перемножениях векторов и матриц далеко не уедешь. Нужно некоторые другие, более хитрые, придумывать процедуры, чтобы всё это работало лучше. Ну и в конечном итоге пишутся на эту тему научные работы всякие, кандидатские защищаются, докторские. Но всё это сводится, по сути, к разным хитрым математическим способам работы с данными.
Ну и вот то, к чему мы пришли сейчас, к вот этим системам, которые умеют рисовать картинки ловко, к системам, которые умеют ловко отвечать на вопросы, — по сути, там находится ровно то же самое. То есть эти системы на большом количестве каких-то данных чему-то учились.
Как, например, работают такие чаты, ChatGPT, Яндекс, Гигачат, кто угодно? Сейчас у всех есть такое ощущение, что у каждого есть по чату. Всякие дипсики какие-то.
Да.
Как они работают? Они работают примерно так же. То есть вот этой нейросети, которую мы с вами описали, которая представляет собой просто здоровенную Excel-таблицу… Она настолько здоровенная, что её даже на одном компьютере нельзя уместить. Она очень большая. Она где-то там болтается на серверах всех этих компаний, жрёт очень много электричества. Чтобы все эти веса пересчитать, нужно потратить много электричества, и обучение нейросети может занимать длительное время, чтобы она что-то толковое делала.
Но в любом случае как работает тот же самый ChatGPT, например? Ему показывают текст. И ему говорят: продолжи вот этот текст. Там, значит, какая-нибудь фраза: London is the capital of Great… А он должен добавить Britain. И вот его пока вот это Britain не научится добавлять в конце к этому, его будут учить, учить, учить, и он в итоге будет правильно дополнять вот это предложение.
Опять же, это всё статистическое. Он не обязательно должен в 100% случаев отвечать Britain. Он в каких-то там, не знаю, в 10% случаев может отвечать что-то другое. Но как только он доходит до уровня, что в девяти случаях из десяти он отвечает Britain, всё, он как бы достаточно обучен.
Ну и дальше примерно то же самое. То есть ему показывают очень много текстов. Он учится их дополнять. Это не делают люди, не сидят руками это всё не вводят. Это всё происходит автоматически. То есть он сам себя обучает, там специально написаны алгоритмы, которые ему эти тексты подсовывают, он сам учится на них, сам себя пытается как-то улучшить и так далее. Но смысл сводится к тому, что ChatGPT пытается продолжить ваше предложение. То есть каждое слово, которое он пишет, — это лучшее слово, которое он может придумать как продолжение того, что уже было написано раньше.
То есть, если хотите, это суперпродвинутый T9. Прям Т9 не то что на стероидах, а на каких-то астрономических стероидах. То есть он умеет вам вот это вот… Как в айфоне, например, можно взять, и айфон предлагает какой-то текст, и просто если будешь нажимать, там он тебе обычно три слова показывает разных, и ты нажимаешь, нажимаешь, нажимаешь — получается какой-то осмысленный текст. Это совершенно не то, что, может быть, вы хотели написать вашему собеседнику в iMessage каком-нибудь, но при этом получается осмысленный текст.
При этом как это работает? Да очень просто. Каждый раз после того, что уже было написано, айфон пытается предложить слово, которое подходит по смыслу. Это всё. И точно так же работает ChatGPT.
Естественно, если ему скормить все книги, весь интернет, всю Википедию, все книги, которые вообще оцифрованы, он, сюрприз-сюрприз, будет ловко отвечать практически на всё. То есть он будет знать… То есть в нём, вот в этих весах, в этой таблице Excel, будет зашито знание всей Википедии, всего интернета, доступного Google, и всех книг, которые когда-либо были написаны, научных работ, публикаций и так далее.
Сейчас практически фантастический рассказ Фредрика Брауна «Ответ».
Да? Уже с каких-то 70-летней давности практически цитируешь. Там про то, как собирают в единую сеть 96 миллионов планет и все компьютеры на них — судя по одной планете. Видимо, компьютеры там просто должны быть размером с небольшой дом.
С полпланеты, видимо.
Да, с полпланеты. Всё это для того, чтобы задать вопрос, на который до сих пор компьютеры не могли ответить: есть ли Бог? И суперкомпьютер говорит: да, теперь есть.
Всё так. Тут я вынужден, правда, встреться с тем, что это всё прекрасно, что он будет иметь все мыслимые книги и Википедию. Но не будем забывать, что среди всех мыслимых книг, во-первых, значительную часть составят книги… Я только что открывал старинную, в которой написано бог знает что с нашей точки зрения. Там куча статей, вот я её нарочно перечитал, я её купил в букинистическом магазине специально для целей подкаста, чтобы некоторые экскурсы по научным темам давать в XX век обратно.
Так вот, там, если почитать, часть предсказаний действительно совершенно сбывшаяся. Про всякие там оптоволоконные сети, например. Про то, что всё будет через них передаваться данными с небывалой скоростью. Всё совершенно верно. Но было и много всякой чепухи. Начиная от того, как мы будем по профсоюзным путёвкам в космос летать. Ладно, это неинтересно.
Может, ещё будем, Домнин.
Не торопись. А допустим, про питание хлореллой. Вот помните, пытались в этих всех биосферах 1 и 2 жрать ту хлореллу? В общем, ни до чего хорошего не дожрались. А там это прямо предлагалось как решение всех проблем. Или, например, нефть и газ превращать в творог, масло — это же тоже всё углеводороды, по сути.
Да, да.
Пока, как видите, ничего мы не превращаем. Только превращаем в основном нормальную колбасу во всякую суррогатную дрянь.
И инфляцию.
То есть я это к чему? К тому, что нейросеть наша, будучи запитана Википедией, в том числе получит из Википедии кучу всякой чепухи. Регулярно бывают скандалы, что по такой-то теме понаписан миллион статей, а её и на свете-то нету, как выяснилось. Это кто-то пошутил. Или просто сумасшедшие какие-то пишут. Книги тоже бывают самые разные, как вы понимаете.
Здесь важно сделать оговорку. Поскольку этот процесс носит несколько стохастический характер, то есть недетерминистический, когда он прочитал какую-то книгу и теперь он будет отвечать по вот этой книге, — нет. Он прочитал вот эту книгу, вот ту книгу. И магия этих нейросетей, вот этой огромной экселевской таблицы, заключается в том, что никто не знает в точности, как оно там всё устроено. Оно всё выравнивается таким образом, чтобы если у тебя есть две книги, в которых написано правильно, а третья, в которой написано неправильно, на один и тот же вопрос, он с высокой долей вероятности всё-таки будет отвечать правильно.
Именно за счёт того, что он это чаще видел.
То есть не столько правильно, сколько в соответствии с господствующей точкой зрения.
Да, естественно. Потому что то, что казалось правильным кибернетикам во времена основоположника Винера, уже через 20 лет, начиная как раз с появления идей про нейросети, превращалось в чепуху. И то, что тогда у нас кибернетику Винера объявили буржуазной лженаукой, было просто потому, что он почему-то на базе кибернетики предсказывал, что человек просто перестанет в условиях засилья умных машин производить что-то имеющее добавленную стоимость, и придётся переходить на какую-то другую систему социальных взаимодействий. Как видите, что-то не перестали и не перешли.
Домнин, мы вот-вот перейдём, ты не переживай. Сейчас про это мы тоже, может быть, поговорим. Да, есть такие опасения. Вот сейчас считается, что Винер был неправ, а через 15 лет вдруг окажется, что наоборот, Винер всё говорил правильно.
Здесь я выкрикну перед тем, как мы продолжим дальше, про Винера и так далее, две вещи. Вещь первая: вот ты сказал, что нейросеть умеет отличать уши у котиков и у собак. На самом деле никто в точности не знает, как оно всё внутри устроено.
Это вряд ли нейросеть знает, что такое уши.
Да, скорее всего, не знает. Абсолютно правильно. То есть вот как аналогию, когда вас учат программировать все эти штуки, перемножать матрицы, вас учат тому, что… Образно выражаясь, у вас обычно там же несколько вот этих штук. На самом деле всё сложно устроено под капотом, я сильно упростил. Но там может быть несколько этих штук, которые собирают результаты с каких-то предыдущих штук, передают результаты следующим. То есть одной экселевской таблицей дело не ограничивается, там их может быть несколько, подключённых друг к другу по цепочке.
И прикол в том, что вам объясняют таким образом, что сами по себе вот эти нолики и единички, из которых состоит картинка с котиком или с собачкой, сами по себе ничего не значат. Но нейросеть в результате обучения умеет находить какие-то паттерны. И эти паттерны не всегда будут паттернами, которые для нас имеют смысл. То есть если вы, например, все фотографии котиков будете давать в кружке, а все собачки будут вписаны в квадрат на белом фоне, то нейросеть ваша незамедлительно научится тому, что определять, кошечка это или собачка, надо не по форме морды или ушей, а по наличию кружка. То есть кружок и белый фон вокруг него, белый квадрат, а собачки, например, в ромбике подаются. Она это увидит, и она будет это вам выдавать в качестве определяющего фактора. То есть многое зависит от качества данных.
Это момент первый, который я хотел выкрикнуть. Момент второй заключается в том, что мы с вами уже увидели, что от всяких экспертных систем, где хранятся вполне себе какие-то конкретные факты и есть какие-то конкретные алгоритмы, у нас было изменение парадигмы в большую математичность. То есть если сперва мы пытались какими-то алгоритмами всё это порешать, придумать, как именно собирать информацию в экспертную систему, вот в этом же самом Акинаторе очень остроумный придуман алгоритм, как он собирает информацию, чтобы угадывать этих всех персонажей… Повторимся, он умеет делать только это. Его нельзя попросить, я не знаю, решить дифференциальное уравнение или написать вам кусок кода на Python. Он просто не предназначен для этого. Он только под одну специфическую задачу заточен.
А почему так? Потому что для него написан несложный алгоритм, очень остроумный алгоритм, но он фиксированный. Он решает исключительно вот эту задачу. Он не может вам что-то суперновое предложить.
То есть, грубо говоря, просто алгоритм по методу исключения.
Это просто алгоритм, да. Ну, как бы if-else, по сути. Если мужчина, значит, сразу исключаем кучу женских персонажей.
Половину персонажей исключили.
Да, или даже больше.
Половину, потому что мужских персонажей много обычно.
А вот с нейросетями история-то какая? В чём, собственно, прелесть этого глубокого обучения и этих всех нейросетей? И почему было несколько оттепелей и зим искусственного интеллекта? То есть приступов оптимизма и, наоборот…
Пессимизма.
Из застоя.
Да. Потому что сперва придумали какие-то штуки, все воодушевились: сейчас мы сделаем искусственный интеллект, он будет за нас всё делать, мы будем сидеть, поплёвывать в потолок. Потом стали делать — что-то не получается, как-то не очень, не выходит каменный цветок. Всё это дело забросили. Потом кто-то умный придумал: а давайте мы будем вот так делать, перцептрон какой-нибудь придумаем, на его основе попробуем что-то делать. Все такие: о, классная идея, давайте делать. Какие-то результаты.
Обычно это всё выглядит так: кто-то что-то придумывает, демонстрирует какие-то результаты, которые до этого были просто неописуемы. Невозможно было себе такое представить. Вот как этот самый Акинатор. Если вы не знаете, что он есть, если вы 10 лет назад живёте или в 2007 году, когда его сделали, вы смотрите: это же натуральная магия. То есть это просто магия, это работает нечеловечески круто. А потом, когда вы понимаете, как это устроено, это уже не магия, это уже: ну да, окей. А можно это как-то применить в другое место? Нельзя. Окей, хорошо. И всё. И как бы пессимизм наступает, люди начинают заниматься другими делами.
Потом кто-то придумывает эту тему с «давайте перемножать матрицы», и у нас получается третья волна. Все такие: о, классно, давайте делать. Ну и вот глубокое обучение ещё придумали, которое позволяет на большом массиве этих кошечек и собачек чего-то извлекать.
Ну и вот получается, что мы парадигму-то поменяли. Если раньше мы хотели этого интеллекта добиться путём какого-то хитрого программирования остроумного или путём того, что мы собираем большое количество данных в какие-то специальные базы данных, а потом при помощи алгоритмов их использовать, как в экспертных системах, теперь у нас фокус сместился на то, что давайте мы будем делать так, как устроено в мозгу человека. С важной оговоркой, которую Домнин сделал в самом начале: так, как мы это понимаем.
Потому что, на самом деле, есть такое мнение, что мы не очень хорошо понимаем, как устроены мозги. Мы понимаем, как они устроены физически, но как они работают, как они хранят информацию…
Как распределяется.
Как распределяется, мы ещё можем себе представить. В томограф засовываем человека, говорим ему: вспомни, как выглядит Дженнифер Лопес. И у него там какая-то загорается область мозга. Можно довольно точно установить, где это всё происходит. Но, тем не менее, как это всё устроено, как это повторить, мы не знаем. Взять и сделать такие же мозги из банки, не выращивая живого человека, мы не можем. Потому что у нас нет понимания, как это всё должно быть устроено.
Может оказаться, что всё это работает не совсем так, как мы себе это представляли. И аналогии, и допущения, которые мы делали о характере работы человеческого мозга и которые мы применили для построения вот этих моделей типа ChatGPT, всяких распознавалок картинок и генераторов картинок Midjourney и так далее, может быть, не совсем хорошо описывают реальность, которая в мозгах. Может, у нас там какие-то квантовые процессы происходят в этих мозгах, о которых мы пока себе не представляем ничего. Трудно сказать.
Но, тем не менее, это такая очередная итерация, судя по всему, не последняя.
Да, скорее всего, скоро будет опять какой-нибудь пессимизм, потом опять оптимизм.
И окажется, что… А вот тут мы подходим к самому интересному касательно темы этого искусственного интеллекта. Огромное количество людей, особенно в Кремниевой долине, не в Силиконовой, а в Кремниевой…
В долине Сан-Фернандо, напоминаю, другое место.
Да, там снимают интересные фильмы для взрослых. Огромное количество людей в Кремниевой долине сейчас очень сильно озаботились тем, что, возможно, через какое-то непродолжительное время мы изобретём общий искусственный интеллект. То есть то, что называется AGI, Artificial General Intelligence. И вот этот искусственный интеллект незамедлительно захочет уничтожить всех человеков, как робот Бендер из «Футурамы». И всё, надо ховаться, строить бункеры, отсиживаться там, апокалипсис, я не знаю, Скайнет запускает ракеты, полный финиш.
Да, Джон Коннор и всё такое.
Это в худшем случае. В лучшем случае все просто останутся без работы. То есть компьютеры научатся так ловко всё делать, что просто все будут безработные у нас. Такая вот есть точка зрения, школа мысли.
Да, ещё от Винера, можно сказать, идёт.
Да. В общем, разговоры про это были давно. Но мы, наконец-то, находимся в той точке, где это, в принципе, наверное, может произойти, если подумать. Потому что давайте сами рассудим. Вот ChatGPT, с которым я, как уже говорил, имею удовольствие работать каждый день, — что он делает? Он ловко решает кучу самых разных задач, которые, скажем так, ты как человек не всегда даже знаешь, как решать.
Вот, например, самый примитивный пример. Apple каждый год выпускает огромное количество новых возможностей для программистов, которые программируют для айфонов, для айпэдов, для маков, вроде меня, iOS-разработчиков так называемых. Появляются какие-то новые возможности, старые возможности, соответственно, заметаются под ковёр, чтобы убрать их рано или поздно, через пару лет. И постоянно приходится приложения все переписывать. В лучшем случае их переписывать приходится, а в худшем случае ещё какой-то новый функционал туда добавлять.
И iOS-программисты постоянно находятся в таком режиме, когда вы должны какие-то новые штуки добавлять, которые от вас бизнес хочет. Кроме того, вам нужно сделать так, чтобы с очередным обновлением iOS или macOS у вас ваше приложение просто тупо не сломалось, потому что Apple там это поменяла, то поменяла, тут какие-то стеклянные интерфейсы выкатили в новых версиях операционных систем. Всё это должно работать.
Вот я, например, обновил телефон, у меня там половина приложений уже какие-то странные показывает штуки. Где-то что-то скачет, где-то что-то не так работает. Или вот самый примитивный пример: у меня на MacBook, я не стал его обновлять до macOS 26, до самой последней версии macOS, у меня перестали закрываться вкладки в браузере. То есть я открываю Safari, нажимаю «Открыть вкладку», какую-нибудь вкладку открываю, пытаюсь её закрыть по крестику, и она не закрывается. Просто не закрывается. Тут очевидный баг. То есть даже Apple не протестировали, не удосужились протестировать на старой версии macOS закрытие вот этой кнопки.
Ну и как бы очевидна проблема, что нужно делать новые штуки, нужно сделать так, чтобы старые штуки продолжали работать. Как крутиться-то? А крутиться очень просто. Есть у нас теперь ChatGPT, Microsoft Copilot какой-нибудь, который в GitHub вроде как встроен, и так далее. И эти штуки умеют очень ловко писать программный код. Ну или, по крайней мере, советовать тебе, какие-то тебе давать советы.
Иногда они дают советы просто идиотские. То есть ты как человек с опытом работы на это смотришь и думаешь: это какой-то очевидный бред. Пробуешь — действительно оказывается бред. Иногда советы очень блестящие. Иногда, и на самом деле чаще всего так происходит, если ты задаёшь вопрос тому же ChatGPT или Microsoft Copilot касательно каких-то нововведений, которые Apple сделала год назад, два года назад и так далее, но про которые ты ничего не знаешь…
Вот я, например, начинаю что-то делать, и, предположим, я не знаю, как работать с какими-то блютусными приблудами на телефоне. А мне надо. Бизнес пришёл ко мне и сказал, что они хотят, чтобы я там видел блютус-маячки, айбиконы какие-нибудь или ещё что-нибудь в таком духе. А я не знаю, как с этим работать. У меня два варианта есть. Раньше, точнее, у меня был один вариант: идти и читать документацию. И разбираться там. Там обычно примеры есть какие-то небольшие, такие примитивные, в стиле: рисуем кружок, рисуем второй кружок, а теперь дорисовываем оставшуюся часть совы. Такого рода обычно примеры были в документации.
А теперь у меня появился второй вариант. Я могу прийти к ChatGPT, сказать: расскажи мне, как работает вот эта штука, про которую я ничего не знаю, которую от меня хотят, чтобы я сделал. Он мне расскажет, покажет, приведёт примеры, поможет мне код модифицировать определённым образом. Опять же, я как человек могу видеть, не обманывает ли он меня в этом процессе. То есть разумные ли он мне вещи предлагает. Потому что у меня есть определённый опыт.
Но при всём при этом он знает гораздо больше, чем знаю я. То есть вот ChatGPT, в него тупо зашито гораздо больше. Потому что у него мозги не условные… Сколько там человеческий мозг весит? 900 грамм или сколько? Трудно сказать, я не помню точную цифру. Дробышевский назвал бы точно.
Мы знаем, что человеческие мозги уменьшаются в размере уже несколько сотен тысяч лет, потому что человекам сейчас не нужно знать столько всего, сколько знали древние человеки, которые могли из дерьма и палок чего угодно сделать, а современные человеки узкоспециализированные, и, в общем, им не надо.
Весь этот мой спич сводится к тому, что вместо того, чтобы заменить меня, этот самый искусственный интеллект позволяет мне более эффективно делать мою работу. То есть я могу её делать быстрее, я чему-то могу научиться в процессе всего этого. И в конечном итоге результат получается вполне себе… Выигрывают в этом процессе абсолютно все.
И не то что меня сейчас ChatGPT заменит, посадят, значит, пять ChatGPT, они будут вместо Ауралиена писать код в 15 раз быстрее. Нет. Это будет так, что Ауралиен просто с ChatGPT будет писать код, например, в три раза быстрее, чем без него. Просто потому, что он там может что-то у него спросить, сказать там: напиши мне тесты для вот этого кода, а теперь напиши мне код для этих тестов, который проходит эти тесты. И в таком вот ключе.
Поэтому трудно сказать, что будет на самом деле дальше. Опять же, мы не умеем прозревать будущее нашим взором. Можем только догадки какие-то строить. Но пока всё выглядит так, что всё-таки человеки будут работать с вот этими системами, вроде этих чат-ботов, генераторов картинок, и будут опираться на помощь этих штук, а не эти штуки будут заменять человеков. У меня вот пока такая точка зрения. Не знаю, как ты на эту тему смотришь.
Тут да, давайте, значит, что ещё мы можем сказать? Две вещи.
Первое — это, собственно, к чему в ближайшее время нас приведёт использование нейросетей. И уже привело, скорее всего, зримо. То есть мы уже видим, что нейросети начинают применять в качестве инструментов прогнозирования, в том числе всяких финансовых, биржевых и так далее. Насколько это всё будет прибыльно, пока что покажет будущее. Я, честно, на все объявления в стиле «вкалывают роботы, а счастлив человек» отношусь с подозрением. Вот когда мы увидим результаты вкалывания, тогда, пожалуй.
К диагностированию болезней тут сложный момент. Потому что, с одной стороны, все мы понимаем, что нейросеть, не доктор, может прогнозировать чёрт знает что. С другой стороны, доктора, знаете сами, какие бывают. То свечку рекомендуют поставить, то гомеопатию, то ещё чего-то. Бывают же, правда? Так что ещё непонятно, что лучше.
Возможно, как вспомогательный инструмент типовому участковому терапевту, которых всё равно учат, открою вам тайну, по алгоритмическим кейсам… Я просто принимал участие по просьбе правительства Москвы в установлении контактов с немцами на эту тему, про обучение врачей. Вот у них там всё максимально алгоритмизировано, чтобы сделать медицину как профессию не столько искусством и даже наукой, сколько ремеслом. И вот к этому нейросети с их советами, что скорее всего это вот это, но может быть ещё и вот это, кроме того, отмечалось, что там два года назад был похожий случай, и там в итоге оказалось, что это опухоль мозга… Врач после этого может эту информацию принять к сведению и назначить на всякий случай МРТ головы, а в остальном лечить по первым двум вариантам каким-нибудь.
Потом все мы знаем, что нейросети уже здорово применяются в деле массового обжуливания и разводки. То есть началось это всё довольно давно, когда их приучили имитировать голоса. По этой причине моей матушке звонили и моим голосом, удивительно похожим как раз при помощи нейросети, втирали, что у меня беда, я сбил девочку. Поскольку моя мать, Ауралиенова сестра, прекрасно знает, что я не люблю машины и не вожу их, и сбить девочку мог разве что плечом, она сказала, что надо вызывать полицию, и всё.
Удивлён, как они не перезвонили и не сказали: да что вы за мать такая.
Или более сложные варианты, когда не только голос, но и внешность при видеозвонке имитируется. Уже бывали случаи массовой разводки, когда жулики имитировали министра какого-то там во Франции, что ли, надев его маску, и разводили всяких африканских политиков и бизнесменов звонками по видеосвязи. Но один лично знакомый что-то заподозрил, что как-то это всё похоже больше на телепередачу «Куклы» по НТВ. И их всех повязали.
А вот с нейросетями можно будет делать такое. Или, например, делать фальшивые видео, где вы, не знаю, пьёте, курите и материтесь, и вымогать деньги за то, что это всё не пошлют вашим родственникам и друзьям.
Ну или самое простое — это используемое многими в законных целях: проверка текста, во-первых, на языковые ошибки, а во-вторых, на его соответствие деловому стилю речи. Ну потому что, я думаю, каждый из вас получал уже миллион писем от нигерийских банкиров, индийской полиции какой-нибудь, требовавшей с вас денег по всяким поводам. Ну а попасться на это может только идиот, потому что там просто видно, что это написано какими-то безграмотными дураками. Никакая полиция ничего подобного написать бы не стала. Как раз нейросети как инструмент могут это всё помочь пригладить.
И, кроме того, уже довольно много народу попалось на мошенничестве и плагиате при написании научных работ. И не только научных, но и художественной литературы. Как минимум один случай недавно был, когда какую-то писательницу прогрессивных взглядов с содержанием таких же книг спалили на том, что у неё там не вымаранные редактором всякие приписки от ИИ: когда его просишь написать текст, он, например, пишет: «Я постарался здесь передать то и это. Хочешь, я добавлю там чего-нибудь поживее?» А это в публикацию пошло. И она, разумеется, объявила, что не виновата, а виноваты белые цисгендерные мужики. Не важно. Факт в том, что такие жульничества есть.
И возникает вопрос: а если уж мы, допустим, можем на нейросеть переложить общение с клиентами на службе поддержки банка и тому подобного или, допустим, какие-нибудь варианты с психологическим консультированием, то почему бы не использовать это в видеоиграх, где, как известно, искусственный интеллект зачастую на самом деле искусственный идиот?
Напомним всем, что искусственный интеллект в играх славен всякими ограничениями ввиду того, что представляет собой, по сути, ограниченный комплекс скриптов, который вообще должен не столько играть против игрока, сколько изображать игру против игрока, чтобы ему было как бы…
Чтобы не сразу его переиграть.
Ну да, чтобы изображать, что какие-то солдатики периодически прибегают, два раза стреляют, умирают. Что ты не всухую какого-то инвалида громишь, а который что-то пытается сделать. Чтобы его усилить, используются не более сложные скрипты, а тупо читинг. То есть делаем бесконечные деньги, бесконечную ману, что-нибудь ещё, мгновенное излечение какое-нибудь стоит от него отцепиться, бесконечные боеприпасы — что-то такое. Потому что, к сожалению, действительно так.
Частью это связано с тем, что в скриптах просто всё-всё-всё нельзя же предусмотреть. В тех случаях, когда разработчики действительно пытаются предусмотреть даже всякие маловероятные события и действия игрока, например, первый Deus Ex, знаешь, чем меня впечатлил сразу?
Чем?
Я, короче, шарясь по штаб-квартире и привыкнув обшаривать всё везде, залез в том числе в женский туалет. И на следующем брифинге перед миссией меня начальство затрюкало за хулиганство. За такое: чего вы по туалетам по женским лазаете? Или, допустим, в Dishonored в самом начале игры рисуют портрет одного из персонажей, стоящего позируя рядом со столиком, на котором бутылка вина и ещё там что-то. Если эту бутылку вина со столика спереть, то в дальнейшем в игре портрет будет без бутылки.
Соответственно, да. Обратите внимание, что это игры так называемые immersive sim, иммерсивные симуляторы, которые как раз строятся именно на том, что там куча всего, что игрок может сделать, и что повлияет на ход игры и поведение неигровых персонажей.
То есть это целый жанр, который специализируется на таком вот очень сложном скриптовом механизме взаимодействия.
Подчеркнём: это всё заскриптовано.
Да. То есть этот интеллект — он не интеллект никакой. Он мнимый, на самом деле. Просто изображается.
А так во многих известных видеоиграх этот интеллект не только видно, что ограничен, но и иногда просто смешит из-за того, что скрипты прописаны странно. То есть мы можем, например, вспомнить Commandos первой части, в которой, например, любой труп считался по умолчанию делом рук игрока. И иногда там бывали случаи, когда немец, допустим, водитель случайно задавил попавшегося на дороге патрульного, после чего начиналась тревога, и они начинали бегать и искать, кто же это его убил. Хотя как бы всё довольно очевидно.
Или, допустим, можно вспомнить странное поведение в Morrowind и Oblivion, где персонажи, например, совершенно в Morrowind терялись, когда ты начал левитировать.
Ух ты.
Просто забыли прописать им реакцию на то, что ты вдруг взлетел. Они начинают бестолково бегать под тобой и пытаться понять, почему ты по их расчётам вот здесь, а тебя там нет. Поскольку в Oblivion прикрыли полёты, эту дыру решили не закрывать. И напрасно, потому что, если залезть на высокий камень, они точно так же начинают тупить из-за этого, как если бы ты взлетел.
Класс. Класс.
Проблемы с поиском пути — это знаменитая проблема у искусственного интеллекта в видеоиграх, когда персонажи по каким-то причинам, которые им кажутся весомыми, проделывают какой-то абсолютно неадекватный путь. Типичный пример был, если вдруг короткий разумный путь на секунду перекрыт кем-то другим. Дело в том, что расчёт пути делался однократно, а не постоянно пинговался — вдруг появилась более интересная дорога. И из-за этого какой-нибудь харвестер в первом Red Alert мог, огорчившись от того, что танк на секунду проехал по мосту, поехать в обход через всю карту, обязательно через вражескую базу.
Классика.
Потому что тебе сообщают: «Our harvester is under attack».
StarCraft прославился тем же самым, только ещё хуже, потому что там был такой юнит, как драгун. Если все остальные юниты просто поворачивались в другую сторону и бежали туда или ехали, там не было механики разворотов никаких, она не моделировалась, просто спрайт мгновенно поворачивал танк в какую-нибудь другую сторону, то вот с драгунами было почему-то так, что они симметричные и ходят, соответственно, симметрично. Поэтому это был самый путаный юнит, который постоянно во всём застревал, мешался другим и друг другу, и, в общем, эти драгуны были головной болью совершеннейшей.
Серия Total War из-за богатства возможностей постоянно какие-то с искусственным интеллектом демонстрировала дыры в духе того, что, например, его забывали научить то плавать по морю на кораблях, то забывали объяснить ему, что если двери открыты в крепость, то через эти двери можно в неё самым удобным способом и заходить. А искусственный интеллект, даже если его шпионы открыли двери изнутри, всё равно честно начинал лезть на стены, биться в них башнями, игнорируя то, что в пяти метрах ворота вообще-то нараспашку.
И возникает вопрос: а почему бы нам не сделать, ну хорошо, пусть не нейросеть, понятно, что она требует огромного количества компьютеров для таких сложных действий, но хотя бы сделаем такой псевдообучающийся искусственный интеллект. Тоже, по сути, на чуть более развитых скриптах. То есть, грубо говоря, вот то, о чём я говорил в начале. Если у монстра снижается шкала сытости, то он начинает чувствовать голод, начинает бегать искать что-то поесть. Примерно так это устроено, допустим, во всяких Sims и подобных играх, где персонажи действительно хотят есть — идут есть, хотят спать — идут спать. Если они грязные, то они пойдут купаться, что-нибудь такое.
Так вот, в Sims это всё, конечно, хорошо и здорово, и то там всякие эксцессы тоже бывают, типа того, что они не могли выбраться из бассейна, в котором убрали лестницу, или ещё там всякие странности с ними бывали. Там просто достаточно ограниченный, по сути, набор взаимодействий, в основном взаимодействие с предметом и с другими NPC, запрограммированный как сложная система нужд и взаимоотношений между ними. То есть кто-то кого-то любит больше или меньше и поэтому хочет больше с ним общаться или, наоборот, меньше, в таком ключе.
А почему бы нам не сделать то же самое, только во всяких условных Oblivion, чтобы, допустим, звери себя вели адекватно? Или разбойники, допустим, если они уже ограбили какой-нибудь караван, то следующее какое-то время будут сидеть, считать деньги, напиваться и праздновать, а не нападать на тебя. Почему зря? Здорово было бы, да?
Так вот, про это ещё покойный Андрей Ленский в небезызвестном журнале «Лучшие компьютерные игры» в 2004 году — 20 лет у нас с лишним прошло — писал. Он писал про попытку как раз такое сделать в одной игре. Я так понял, что она была заточена как MMORPG, и они пытались там сделать такую относительно реалистично на сложных скриптах работающую всякую живность и прочее. А не так, как в World of Warcraft, где монстры ходят кругами по одному и тому же месту и больше ничего не делают.
Как пришитые.
Они, например, попытались сделать, во-первых, разбойника, которого по квесту убить. И прописали ему самообучение такое, по сути, которое должно было просто учитывать, примерно как у экспертных систем типа Акинатора, грубо говоря, смотреть, например, где и как его чаще убивают, а где и как реже. Наоборот, где и как ему удаётся лучше бороться с персонажами игроков, а где хуже. В итоге он, например, стал шкериться по кустам, потому что ему целиться не надо, а игрокам по игровой механике надо было по нему кликнуть. А кусты мешают.
Класс.
Потом он приучился шкериться там, где очень много всяких мелких криттеров, потому что заметил, что там по нему тоже хуже попадают, потому что там проседают FPS.
Класс.
Да, из-за этого. Ещё хуже получилось, когда они пытались моделировать мирное поведение зверюшек. Например, тушканчиков завели и дали им три задачи: самим есть всякие кусты, периодически произрастающие сквозь землю, не быть съеденными всякими хищниками и периодически размножаться. Для чего они должны были подбегать к другому тушкану, некоторое время стоять, а потом появляются малыши.
С этим тоже начались проблемы. Например, вроде того, что им не прописали того, что нужно прекращать размножаться после того, как уже не раз размножились. Они просто сходились и начинали какие-то миллиарды плодить на одном месте.
В геометрической прогрессии начали расти.
Тогда им там почему-то, видимо, нельзя было прописать, что раз расплодился — надо какой-то кулдаун включать на это. И вместо этого дали команду избегать своих же в процессе размножения. Потом оказалось, что периодически они срываются с высоты и разбиваются. Потому что им велено избегать хищников, а вовсе не просто смерти как таковой. И вот они, не шедше сумняшеся, прыгают с высоты и убиваются.
Запретили прыгать туда, где это приведёт к потере всех HP. В итоге там ещё нашёлся баг, из-за которого один из тушканов запрыгнул каким-то образом и зацепился за какого-то взлетевшего стервятника. И спрыгнуть он с него теперь не может, потому что ему запрещено спрыгивать и разбиваться. И он летает на этом стервятнике невозбранно.
Короче, как видите, получается просто маразм какой-то из-за того, что эти экспертные системы начинают самообучаться совершенно не тому, чему надо. И вы просто будете тратить больше времени на вылавливание странного поведения, чем если вы просто пропишете большое количество сложных скриптов, как в иммерсивных симах сделано, если уж вам это так припекло. А лучше просто не заморачиваться этим и оставить всё как в том же World of Warcraft с искусственным интеллектом.
Да. Вот видите, какие сложности-то бывают. Так что поживём — ещё увидим. Может быть, когда мощности дорастут, нейросети будут и в видеоиграх тоже против нас играть. И тогда, может быть, окажется такое, что, не знаю, они так разовьются, что их просто будет нельзя побить ни на каком уровне сложности. Принципиально они будут во всём лучше самых корейских чемпионов. Посмотрим, к чему это придёт.
А пока будем, пожалуй, заканчивать.
Я два слова добавлю. То, что принято называть искусственным интеллектом, конечно, интеллектом в нашем понимании не является. Искусственным интеллектом в ходе истории называли всё подряд. С самых простых задач, которые решались какими-то хитрыми способами, потом к задачам более сложным, которые стали решаться при помощи повышения вычислительных мощностей, потом к более сложным задачам, которые стали решаться при помощи хитрой математики и вычислительных мощностей.
И в конечном итоге все вот эти интересные штуки назывались искусственным интеллектом. То есть распознавание картинок, написание текстов, распознавание опухолей на рентгеновских снимках и тому подобное. То есть это зонтичный термин, который по сути никакого интеллекта не представляет. И более того, чаще всего они узкоспециализированные. То есть вы не можете взять программу, которая ловко играет в шахматы, и заставить её, не знаю, предсказывать, где рыба будет клевать у вас. В таком вот ключе.
Всё это, по сути, инструменты, которые заточены под решение конкретной задачи. Какой-то конкретной задачи. Тот же ChatGPT ловко умеет решать одну-единственную конкретную задачу: предсказывание слова, которое следует за предыдущими словами. То есть вы можете ему задать вопрос, и он вам при помощи этой хитрой математики будет выдавать просто то, что он знает, тем или иным образом. Он делает только это. Он не может управлять автомобилем.
Всякие диффуры он умеет решать, потому что его математике научили. Можно ему ради эксперимента попробовать задать какую-нибудь хитрую олимпиадную задачу по программированию, по математике. Он её вам, конечно, скорее всего, сможет решить, объяснит решение, потому что он, в принципе, этому был обучен. Но какие-то такие вещи делать экстраординарные он, конечно, не сможет.
То есть это, по сути, инструменты, заточенные для решения конкретных задач. Вот если у нас появится что-то, что сможет сравниться с человеческим интеллектом по способности решать разного рода задачи, тут уже мы сможем, может быть, говорить о каком-то искусственном интеллекте. Пока искусственный интеллект — это зонтичный термин, который никакого искусственного интеллекта, конечно, не подразумевает. Это просто какие-то специализированные инструменты, подчас дорогие инструменты.
Работа нейросетей, всяких ChatGPT — это очень дорогостоящая задача. Если вам нужно что-то делать, какую-то задачу решать при помощи этих штук, вы быстро обнаруживаете, что для того, чтобы использовать, например, API OpenAI или Google, вам нужно платить изрядное количество денег, потому что всё это где-то должно находиться, оно должно употреблять электричество, оно должно как-то питаться.
И даже бесплатные аккаунты того же самого ChatGPT или Gemini тоже потребляют ресурсы. Кто-то за это платит, просто не вы. Вас подталкивают, чтобы вы начали платить. Вот как я, например, плачу за ChatGPT, за платную версию, потому что мне хочется без ограничений им пользоваться, которые накладывает бесплатная версия.
Всё равно надо понимать, что это какой-то алгоритм, который работает где-то на каком-то физическом компьютере и который умеет решать для вас какую-то задачу, которой его научили. Это не такой же человек, как мы с вами, который ходит, может смотреть, со значением что-то разговаривать, какие-то делать абстрактные вещи. До этого мы пока ещё не доросли. И, возможно, мы и не дорастём. Может быть, при нашей жизни такого вот интеллекта, который похож на естественный в плане того, что он может делать широкий спектр задач, мы этого и не увидим никогда. А может быть, увидим. Будет интересно посмотреть на всё на это.
Да. Ну и на этой позитивной ноте мы будем закругляться.