Новая легкая модель искусственного интеллекта от Microsoft по своим возможностям не уступает GPT-3.5, несмотря на то, что она достаточно мала, чтобы работать на смартфоне.

Новая легкая модель искусственного интеллекта от Microsoft по своим возможностям не уступает GPT-3.5, несмотря на то, что она достаточно мала, чтобы работать на смартфоне.


Добро пожаловать в уголок, где империи рушатся, а ваши миниатюры страдают от кривых покрасов! Присоединяйся к официальному телеграм-каналу Warhammer 40,000, где мы обсуждаем, как в очередной раз проиграть из-за одного несчастного кубика. Ждём твоего вступления с таким же нетерпением, с каким Император ждёт новую модель!

Warhammer 40k Telegram


Что тебе нужно знать

  • У Microsoft есть новая облегченная модель искусственного интеллекта под названием Phi-3 Mini.
  • Phi-3 Mini — одна из трех меньших моделей, которые выпустит Microsoft, две другие — Phi-3 Small и Phi-3 Medium.
  • Microsoft обучала Phi-3 Mini по программе, аналогичной тому, как дети учатся, слушая истории.
  • Из-за того, что для обучения модели ИИ недостаточно детских историй, у Microsoft есть LLM, создающий детские книги для обучения Phi-3 Mini.
  • Microsoft заявляет, что Phi-3 Mini обладает такими же возможностями, как GPT-3.5, но имеет меньший форм-фактор.

Microsoft представляет компактную модель искусственного интеллекта под названием Phi-3 Mini, которая может похвастаться способностью соответствовать возможностям GPT-3.5 в определенных областях, несмотря на использование меньшего количества ресурсов. Phi-3 Mini обучался на меньшем количестве данных по сравнению с более крупными языковыми моделями, такими как GPT-4, но в некоторых аспектах ему удается превзойти производительность таких моделей, как Llama 2. Небольшой размер модели позволяет ей работать на телефонах и ноутбуках, не полагаясь на Интернет.

Microsoft раскрыла информацию о Phi-3 в исследовательском документе. Впоследствии The Verge опубликовала статью, проливающую свет на эту модель и включающую заявления Microsoft.

Языковая модель Phi-3 Mini имеет размер параметров 3,8 миллиарда и основана на 3,3 триллиона обучающих токенов. Согласно соответствующей исследовательской работе, важным аспектом этой модели является обширный набор обучающих данных. Phi-3 Mini — это обновленная версия Phi-2, которая стала доступна в декабре 2023 года.

Microsoft утверждает, что Phi-3 Mini способен конкурировать с моделями, которые в десять раз больше по размеру.

Модель Lightweight Phi-3 Mini от Microsoft не уникальна; такие компании, как Google, Anthropic и Meta, также разрабатывают более легкие модели. Однако что отличает Phi-3 Mini от других, так это его метод обучения. Как объяснил The Verge вице-президент Microsoft Azure AI Platform Эрик Бойд, при разработке Phi-3 Mini Microsoft черпала вдохновение в том, как дети учатся с помощью сказок на ночь.

Из-за нехватки детских сказок Microsoft пришлось создать свои собственные для обучения Phi-3 Mini. Бойд объяснил The Verge, что они составили список, содержащий более 3000 слов, и поручили LLM (Large Language Model) создать «детские книги», специально предназначенные для обучения системе.

Модель, похожая на Phi-3 Mini, не предназначена для замены GPT-4 или моделей большого языка. Скорее, модели меньшего размера лучше справляются с конкретными задачами и приложениями. Они имеют ценность для предприятий, которые работают с закрытыми данными в учебных целях.

Местный ИИ

Новая легкая модель искусственного интеллекта от Microsoft по своим возможностям не уступает GPT-3.5, несмотря на то, что она достаточно мала, чтобы работать на смартфоне.

Локальный искусственный интеллект призван заменить LLM и стать следующим достижением в области искусственного интеллекта. Microsoft Copilot будет иметь возможность в некоторой степени работать в автономном режиме на ПК с искусственным интеллектом. Компании изучают методы использования ИИ без зависимости от подключения к Интернету. Компактные модели, такие как Phi-3 Mini, теперь достаточно малы для установки на мобильные телефоны, ноутбуки и другие портативные устройства.

Когда Intel представила свои новые процессоры Lunar Lake, корпорация объявила, что эти процессоры будут обеспечивать впечатляющую производительность в 100 TOPS (триллионов операций в секунду) для задач, связанных с искусственным интеллектом, при этом NPU обеспечит около 45 TOPS. Это число примечательно, поскольку для эффективной локальной работы Copilot требуется не менее 40 TOPS производительности NPU. Процессор Qualcomm Snapdragon X Elite может похвастаться сопоставимой производительностью NPU в 45 TOPS, что означает, что он также имеет возможность запускать Copilot локально.

Крупные технологические компании быстро внедряют LLM и другие модели искусственного интеллекта для публичного использования, однако мы только начинаем видеть оборудование, способное эффективно использовать технологию искусственного интеллекта. Меньшие модели, такие как Phi-3 Mini, будут необходимы в конкретных приложениях и на устройствах, которые не соответствуют стандартам производительности для локального запуска передовых инструментов искусственного интеллекта.

Смотрите также

2024-04-23 19:50