Искусственный интеллект меняет мир и одновременно изобретает совершенно новый язык для описания того, как он это делает. Потратьте пять минут на чтение об ИИ, и вы столкнетесь с LLM, RAG, RLHF и десятком других терминов, которые могут заставить даже очень умных людей в мире технологий чувствовать себя неуверенно. Этот глоссарий — наша попытка исправить это. Мы регулярно обновляем его по мере развития области, поэтому считайте его живым документом, во многом похожим на описываемые в нем системы искусственного интеллекта.
Общий искусственный интеллект, или AGI, — расплывчатый термин. Но обычно это относится к ИИ, который более способен, чем средний человек, во многих, если не большинстве, задачах. Генеральный директор OpenAI Сэм Альтман однажды назвал AGI «эквивалентом среднестатистического человека, которого можно нанять в качестве сотрудника». Между тем, устав OpenAI определяет AGI как «высокоавтономные системы, которые превосходят людей в большинстве экономически ценных работ». Понимание Google DeepMind немного отличается от этих двух определений; лаборатория рассматривает AGI как «ИИ, который, по крайней мере, так же способен, как и люди, решать большинство когнитивных задач». Смущенный? Не волнуйтесь, так же как и эксперты, находящиеся на переднем крае исследований в области искусственного интеллекта.
ИИ-агент
Агент ИИ — это инструмент, который использует технологии ИИ для выполнения ряда задач от вашего имени — помимо того, что может делать более простой чат-бот с ИИ — например, регистрация расходов, бронирование билетов или столика в ресторане или даже написание и поддержка кода. Однако, как мы объясняли ранее, в этом развивающемся пространстве есть много движущихся частей, поэтому «агент ИИ» может означать разные вещи для разных людей. Инфраструктура также все еще строится для реализации запланированных возможностей. Но базовая концепция подразумевает автономную систему, которая может использовать несколько систем искусственного интеллекта для выполнения многоэтапных задач.
Конечные точки API
Думайте о конечных точках API как о «кнопках» на задней панели программного обеспечения, которые другие программы могут нажимать, чтобы заставить их что-то делать. Разработчики используют эти интерфейсы для создания интеграций — например, позволяя одному приложению извлекать данные из другого или позволяя агенту искусственного интеллекта напрямую управлять сторонними сервисами, без необходимости вручную управлять каждым интерфейсом. На большинстве устройств «умного дома» и подключенных платформ эти скрытые кнопки доступны, даже если обычные пользователи никогда не видят их и не взаимодействуют с ними. По мере того, как ИИ-агенты становятся более способными, у них появляется все больше возможностей находить и использовать эти конечные точки самостоятельно, открывая мощные — а иногда и неожиданные — возможности для автоматизации.
Цепочка мыслей
На простой вопрос человеческий мозг может ответить, даже не задумываясь над ним: например, «какое животное выше, жираф или кошка?» Но во многих случаях вам часто нужны ручка и бумага, чтобы найти правильный ответ, потому что есть промежуточные шаги. Например, если у фермера есть куры и коровы, и у них вместе 40 голов и 120 ног, вам, возможно, придется написать простое уравнение, чтобы найти ответ (20 кур и 20 коров).
В контексте ИИ цепочка мыслей для больших языковых моделей означает разбиение проблемы на более мелкие промежуточные шаги для улучшения качества конечного результата. Обычно получение ответа занимает больше времени, но ответ с большей вероятностью будет правильным, особенно в контексте логики или кодирования. Модели рассуждения разработаны на основе традиционных моделей большого языка и оптимизированы для цепочки мыслей благодаря обучению с подкреплением.
(См.: Большая языковая модель)
Только на этой неделе: купите один пропуск и получите второй со скидкой 50 %.
Ваш следующий раунд. Ваш следующий прием на работу. Ваша следующая возможность прорыва. Найдите это на TechCrunch Disrupt 2026, где более 10 000 основателей, инвесторов и технологических лидеров собираются на три дня, состоящие из более чем 250 тактических сессий, мощных презентаций и инноваций, определяющих рынок. Зарегистрируйтесь до 8 мая, чтобы получить +1 за половину стоимости.
Только на этой неделе: купите один пропуск и получите все
состояние со скидкой 50%
Ваш следующий раунд. Ваш следующий прием на работу. Ваша следующая возможность прорыва. Найдите это на TechCrunch Disrupt 2026, где более 10 000 основателей, инвесторов и технологических лидеров собираются на три дня, состоящие из более чем 250 тактических сессий, мощных презентаций и инноваций, определяющих рынок. Зарегистрируйтесь до 8 мая, чтобы получить +1 за половину стоимости.
Кодирующие агенты
Это более конкретное понятие, чем «агент ИИ», что означает программу, которая может самостоятельно, шаг за шагом предпринимать действия для достижения цели. Агент кодирования — это специализированная версия, применяемая для разработки программного обеспечения. Вместо того, чтобы просто предлагать код человеку для просмотра и вставки, агент кодирования может писать, тестировать и отлаживать код автономно, выполняя итеративную работу методом проб и ошибок, которая обычно занимает рабочий день разработчика. Эти агенты могут работать со всей кодовой базой, выявляя ошибки, запуская тесты и внося исправления с минимальным контролем со стороны человека. Думайте об этом как о найме очень быстрого стажера, который никогда не спит и никогда не теряет концентрацию — хотя, как и любому стажеру, человеку все равно нужно проверять работу.
Вычислить
Хотя термин «вычисление» в некоторой степени многозначен, он обычно относится к жизненно важной вычислительной мощности, которая позволяет моделям ИИ работать. Этот тип обработки подпитывает индустрию искусственного интеллекта, давая ей возможность обучать и развертывать свои мощные модели. Этот термин часто является сокращением для видов аппаратного обеспечения, обеспечивающих вычислительную мощность — таких вещей, как графические процессоры, центральные процессоры, TPU и другие формы инфраструктуры, которые составляют основу современной индустрии искусственного интеллекта.
Глубокое обучение
Подмножество самоусовершенствующегося машинного обучения, в котором алгоритмы ИИ разрабатываются с использованием многослойной структуры искусственной нейронной сети (ИНС). Это позволяет им создавать более сложные корреляции по сравнению с более простыми системами, основанными на машинном обучении, такими как линейные модели или деревья решений. Структура алгоритмов глубокого обучения черпает вдохновение из взаимосвязанных путей нейронов в человеческом мозге.
Модели искусственного интеллекта с глубоким обучением способны сами определять важные характеристики данных, вместо того чтобы требовать от инженеров-людей определения этих характеристик. Структура также поддерживает алгоритмы, которые могут учиться на ошибках и посредством процесса повторения и корректировки улучшать свои результаты. Однако для получения хороших результатов системам глубокого обучения требуется много точек данных (миллионы и более). Кроме того, их обучение обычно занимает больше времени по сравнению с более простыми алгоритмами машинного обучения, поэтому затраты на разработку, как правило, выше.
(См.: Нейронная сеть)
Диффузия
Диффузия — это технология, лежащая в основе многих моделей искусственного интеллекта, генерирующих искусство, музыку и текст. Вдохновленные физикой, диффузионные системы медленно «разрушают» структуру данных — например, фотографий, песен и т. д. — добавляя шум, пока ничего не останется. В физике диффузия является спонтанной и необратимой: сахар, диффундировавший в кофе, не может быть восстановлен в форме кубика. Но системы диффузии в ИИ стремятся изучить своего рода процесс «обратной диффузии» для восстановления уничтоженных данных, получая возможность восстанавливать данные из шума.
Дистилляция
Дистилляция — это метод, используемый для извлечения знаний из большой модели ИИ с помощью модели «учитель-ученик». Разработчики отправляют запросы модели учителя и записывают результаты. Ответы иногда сравниваются с набором данных, чтобы увидеть, насколько они точны. Эти выходные данные затем используются для обучения модели ученика, которая обучена аппроксимировать поведение учителя.
Дистилляцию можно использовать для создания более эффективной модели меньшего размера на основе более крупной модели с минимальными потерями при перегонке. Вероятно, именно так OpenAI разработала GPT-4 Turbo, более быструю версию GPT-4.
Хотя все компании, занимающиеся ИИ, используют дистилляцию внутри себя, некоторые компании, занимающиеся ИИ, возможно, также использовали ее, чтобы догнать передовые модели. Отгонка от конкурента обычно нарушает
принимает условия обслуживания AI API и чат-помощников.
Тонкая настройка
Это относится к дальнейшему обучению модели ИИ для оптимизации производительности для более конкретной задачи или области, чем это было ранее в центре внимания ее обучения — обычно путем подачи новых специализированных (т. е. ориентированных на задачу) данных.
Многие стартапы в области искусственного интеллекта берут большие языковые модели в качестве отправной точки для создания коммерческого продукта, но соперничают за повышение полезности для целевого сектора или задачи, дополняя предыдущие циклы обучения тонкой настройкой на основе собственных знаний и опыта в конкретной предметной области.
(См.: Большая языковая модель [LLM])
GAN, или генеративная состязательная сеть, — это тип среды машинного обучения, которая лежит в основе некоторых важных разработок в области генеративного искусственного интеллекта, когда дело доходит до создания реалистичных данных, включая (но не только) инструменты дипфейков. GAN предполагают использование пары нейронных сетей, одна из которых использует свои обучающие данные для генерации выходных данных, которые передаются в другую модель для оценки.
По сути, две модели запрограммированы на то, чтобы попытаться превзойти друг друга. Генератор пытается передать свои выходные данные через дискриминатор, в то время как дискриминатор пытается обнаружить искусственно сгенерированные данные. Этот структурированный конкурс может оптимизировать результаты ИИ, чтобы они были более реалистичными, без необходимости дополнительного вмешательства человека. Хотя GAN лучше всего работают для более узких приложений (например, для создания реалистичных фотографий или видео), а не для искусственного интеллекта общего назначения.
Галлюцинация
Галлюцинация — это предпочтительный термин в индустрии искусственного интеллекта для обозначения моделей искусственного интеллекта, которые выдумывают что-то — буквально генерируют неверную информацию. Очевидно, что это огромная проблема для качества ИИ.
Галлюцинации производят результаты ГенИИ, которые могут вводить в заблуждение и даже приводить к реальным рискам — с потенциально опасными последствиями (представьте себе запрос о здоровье, который дает вредный медицинский совет).
Считается, что проблема изготовления информации ИИ возникает из-за пробелов в обучающих данных. Галлюцинации способствуют развитию более специализированных и/или вертикальных моделей ИИ — то есть ИИ, специфичных для конкретной области, требующих более узкого опыта — как способа уменьшить вероятность пробелов в знаниях и уменьшить риски дезинформации.
Вывод
Вывод — это процесс запуска модели ИИ. Модель позволяет делать прогнозы или делать выводы на основе ранее полученных данных. Чтобы внести ясность, вывод не может произойти без обучения; модель должна изучить закономерности в наборе данных, прежде чем она сможет эффективно экстраполировать эти обучающие данные.
Выполнять логические выводы могут многие типы оборудования: от процессоров смартфонов до мощных графических процессоров и специально разработанных ускорителей искусственного интеллекта. Но не все из них могут одинаково хорошо работать с моделями. Очень большим моделям потребовалось бы много времени, чтобы сделать прогнозы, скажем, о ноутбуке и облачном сервере с высокопроизводительными чипами искусственного интеллекта.
[См.: Обучение]
Большая языковая модель (LLM)
Большие языковые модели, или LLM, — это модели ИИ, используемые популярными помощниками ИИ, такими как ChatGPT, Claude, Gemini от Google, AI Llama от Meta, Microsoft Copilot или Le Chat от Mistral. Когда вы общаетесь с ИИ-помощником, вы взаимодействуете с большой языковой моделью, которая обрабатывает ваш запрос напрямую или с помощью различных доступных инструментов, таких как просмотр веб-страниц или интерпретаторы кода.
LLM — это глубокие нейронные сети, состоящие из миллиардов числовых параметров (или весов, см. ниже), которые изучают отношения между словами и фразами и создают представление языка, своего рода многомерную карту слов.
Эти модели создаются путем кодирования шаблонов, которые они находят в миллиардах книг, статей и стенограмм. Когда вы запрашиваете LLM, модель генерирует наиболее вероятный шаблон, соответствующий подсказке.
(См.: Нейронная сеть)
Кэш памяти
Кэш памяти относится к важному процессу, который ускоряет логический вывод (который является
процесс, с помощью которого ИИ генерирует ответ на запрос пользователя). По сути, кэширование — это метод оптимизации, предназначенный для повышения эффективности вывода. Очевидно, что ИИ руководствуется высокооктановыми математическими расчетами, и каждый раз, когда эти расчеты производятся, они потребляют все больше энергии. Кэширование предназначено для сокращения количества вычислений, которые может потребоваться выполнить модели, путем сохранения определенных вычислений для будущих пользовательских запросов и операций. Существуют различные виды кэширования памяти, хотя одним из наиболее известных является кэширование KV (или значений ключей). KV-кэширование работает в моделях на основе преобразователя и повышает эффективность, обеспечивая более быстрые результаты за счет сокращения количества времени (и алгоритмического труда), необходимого для генерации ответов на вопросы пользователей.
(См.: Вывод)
Нейронная сеть
Нейронная сеть — это многоуровневая алгоритмическая структура, которая лежит в основе глубокого обучения — и, в более широком смысле, всего бума инструментов генеративного искусственного интеллекта, последовавшего за появлением больших языковых моделей.
Хотя идея черпать вдохновение из тесно взаимосвязанных путей человеческого мозга в качестве структуры проектирования алгоритмов обработки данных возникла еще в 1940-х годах, именно гораздо более позднее появление аппаратных средств графической обработки (GPU) — через индустрию видеоигр — действительно раскрыло силу этой теории. Эти чипы оказались хорошо подходящими для обучения алгоритмов с гораздо большим количеством слоев, чем это было возможно в предыдущие эпохи, что позволило системам искусственного интеллекта на основе нейронных сетей достичь гораздо большей производительности во многих областях, включая распознавание голоса, автономную навигацию и поиск лекарств.
(См.: Большая языковая модель [LLM])
Открытый исходный код
Открытый исходный код относится к программному обеспечению (или, все чаще, к моделям искусственного интеллекта), в которых базовый код становится общедоступным, чтобы каждый мог его использовать, проверять или изменять. В мире искусственного интеллекта ярким примером является семейство моделей Llama компании Meta; Linux — это знаменитая историческая параллель в операционных системах. Подходы с открытым исходным кодом позволяют исследователям, разработчикам и компаниям по всему миру опираться на работу друг друга, ускоряя прогресс и обеспечивая независимые проверки безопасности, которые закрытые системы не могут легко обеспечить. Закрытый исходный код означает, что код является конфиденциальным — вы можете использовать продукт, но не видеть, как он работает, как в случае с моделями GPT OpenAI — различие, которое стало одним из определяющих споров в индустрии искусственного интеллекта.
Распараллеливание
Распараллеливание означает выполнение множества задач одновременно, а не одно за другим — например, когда над разными частями проекта одновременно работают 10 сотрудников, а не один сотрудник, делающий все последовательно. В ИИ распараллеливание имеет основополагающее значение как для обучения, так и для вывода: современные графические процессоры специально разработаны для параллельного выполнения тысяч вычислений, и это основная причина, по которой они стали аппаратной основой отрасли. Поскольку системы искусственного интеллекта становятся все более сложными, а модели — большими, возможность распараллеливать работу на многих чипах и многих машинах стала одним из наиболее важных факторов, определяющих, насколько быстро и экономически эффективно можно создавать и развертывать модели. Исследование лучших стратегий распараллеливания теперь является отдельной областью исследований.
РАМагеддон
RAMageddon — это забавный новый термин, обозначающий не очень веселую тенденцию, охватившую технологическую индустрию: постоянно растущую нехватку оперативной памяти или чипов оперативной памяти, на которых работают практически все технологические продукты, которые мы используем в повседневной жизни. По мере того, как индустрия искусственного интеллекта процветает, крупнейшие технологические компании и лаборатории искусственного интеллекта — все соперничают за самый мощный и эффективный искусственный интеллект — покупают так много оперативной памяти для питания своих центров обработки данных, что остальным из нас почти ничего не остается. И это узкое место в поставках означает, что то, что осталось, становится все дороже и дороже.
Сюда входят такие отрасли, как
игры (где крупным компаниям пришлось поднять цены на консоли, потому что труднее найти чипы памяти для их устройств), бытовая электроника (где нехватка памяти может вызвать самое большое падение поставок смартфонов за более чем десятилетие) и общие корпоративные вычисления (потому что эти компании не могут получить достаточно оперативной памяти для своих собственных центров обработки данных). Ожидается, что рост цен прекратится только после того, как закончится ужасный дефицит, но, к сожалению, нет особых признаков того, что это произойдет в ближайшее время.
Обучение с подкреплением
Обучение с подкреплением — это способ обучения ИИ, при котором система учится, пробуя что-то и получая вознаграждение за правильные ответы — это похоже на обучение вашего любимого питомца лакомствами, за исключением того, что «питомцем» в этом сценарии является нейронная сеть, а «угощение» — математический сигнал, указывающий на успех. В отличие от обучения с учителем, когда модель обучается на фиксированном наборе данных с помеченными примерами, обучение с подкреплением позволяет модели исследовать окружающую среду, предпринимать действия и постоянно обновлять свое поведение на основе получаемой обратной связи. Этот подход оказался особенно эффективным для обучения ИИ играть в игры, управлять роботами и, в последнее время, улучшить способность к рассуждению больших языковых моделей. Такие методы, как обучение с подкреплением на основе отзывов людей (RLHF), теперь играют центральную роль в том, как ведущие лаборатории искусственного интеллекта настраивают свои модели, чтобы они были более полезными, точными и безопасными.
Токен
Когда дело доходит до человеко-машинного общения, существуют некоторые очевидные проблемы: люди общаются, используя человеческий язык, в то время как программы ИИ выполняют задачи посредством сложных алгоритмических процессов, основанных на данных. Токены устраняют этот разрыв: они являются основными строительными блоками связи человека и ИИ, представляя собой дискретные сегменты данных, которые были обработаны или созданы LLM. Они создаются с помощью процесса, называемого токенизацией, который разбивает необработанный текст на небольшие единицы, которые может переварить языковая модель, подобно тому, как компилятор переводит человеческий язык в двоичный код, который может понять компьютер. В корпоративных условиях токены также определяют стоимость — большинство компаний, занимающихся искусственным интеллектом, взимают плату за использование LLM на основе каждого токена, а это означает, что чем больше компания использует, тем больше она платит.
Пропускная способность токена
Итак, еще раз, токены — это небольшие фрагменты текста (часто части слов, а не целые слова), на которые языковые модели ИИ разбивают язык перед его обработкой; они примерно аналогичны «словам» для понимания рабочих нагрузок ИИ. Пропускная способность означает, какой объем может быть обработан за определенный период времени, поэтому пропускная способность токенов, по сути, является мерой того, какой объем работы ИИ может обрабатывать система одновременно. Высокая пропускная способность токенов — ключевая цель для команд по инфраструктуре искусственного интеллекта, поскольку она определяет, сколько пользователей модель может обслуживать одновременно и как быстро каждый из них получает ответ. Исследователь искусственного интеллекта Андрей Карпати описал чувство беспокойства, когда его подписки на искусственный интеллект простаивают — повторяя чувство, которое он испытывал, когда был аспирантом, когда дорогое компьютерное оборудование не использовалось в полной мере — чувство, которое объясняет, почему максимизация пропускной способности токенов стала чем-то вроде навязчивой идеи в этой области.
Обучение
Разработка ИИ машинного обучения включает в себя процесс, известный как обучение. Проще говоря, это означает, что данные вводятся для того, чтобы модель могла учиться на шаблонах и генерировать полезные результаты. По сути, это процесс реагирования системы на характеристики данных, который позволяет ей адаптировать выходные данные для достижения искомой цели — будь то идентификация изображений кошек или создание хайку по запросу.
Обучение может быть дорогостоящим, поскольку оно требует большого количества входных данных, а требуемые объемы имеют тенденцию к увеличению. Именно поэтому гибридные подходы, такие как точная настройка ИИ, основанного на правилах, с целевыми данными, могут помочь управлять затратами, не начиная обучение.
полностью с нуля.
[См.: Вывод]
Трансферное обучение
Метод, при котором ранее обученная модель ИИ используется в качестве отправной точки для разработки новой модели для другой, но обычно связанной задачи, что позволяет повторно применить знания, полученные в предыдущих циклах обучения.
Трансферное обучение может повысить эффективность за счет сокращения разработки моделей. Это также может быть полезно, когда данные для задачи, для которой разрабатывается модель, несколько ограничены. Но важно отметить, что этот подход имеет ограничения. Модели, которые полагаются на трансферное обучение для получения обобщенных возможностей, вероятно, потребуют обучения на дополнительных данных, чтобы хорошо работать в своей области.
(См.: Точная настройка)
Веса
Веса являются основой обучения ИИ, поскольку они определяют, насколько важно (или вес) придается различным функциям (или входным переменным) в данных, используемых для обучения системы, тем самым формируя выходные данные модели ИИ.
Другими словами, веса — это числовые параметры, которые определяют, что наиболее важно в наборе данных для данной задачи обучения. Они выполняют свою функцию, применяя умножение к входным данным. Обучение модели обычно начинается с весов, которые назначаются случайным образом, но по мере развития процесса веса корректируются по мере того, как модель стремится получить выходные данные, которые более точно соответствуют целевому значению.
Например, модель искусственного интеллекта для прогнозирования цен на жилье, обученная на исторических данных о недвижимости для целевого местоположения, может включать веса для таких функций, как количество спален и ванных комнат, является ли недвижимость отдельной или двухквартирной, есть ли в ней парковка, гараж и т. д.
В конечном счете, веса, которые модель присваивает каждому из этих входных данных, отражают, насколько они влияют на значение свойства на основе данного набора данных.
Потеря проверки
Потери при валидации — это число, которое показывает, насколько хорошо модель ИИ обучается во время обучения — чем меньше, тем лучше. Исследователи внимательно отслеживают его как своего рода табель успеваемости в режиме реального времени, используя его, чтобы решить, когда прекратить обучение, когда скорректировать гиперпараметры или исследовать потенциальную проблему. Одна из ключевых проблем, которую он помогает выявить, — это переобучение, состояние, при котором модель запоминает свои обучающие данные, а не действительно изучает шаблоны, которые она может обобщить на новые ситуации. Думайте об этом как о разнице между студентом, который искренне понимает материал, и тем, кто просто выучил наизусть прошлогодний экзамен — потеря проверки помогает определить, какой из моделей становится ваша модель.
Эта статья регулярно обновляется новой информацией.




