Новости

Microsoft запустила Windows AI Foundry — платформу для локальной разработки ИИ на Windows

Компания уже предоставляет возможности работы с ИИ через Windows Copilot Runtime, обеспечивая доступ к функциям машинного обучения и API Windows AI. Эти технологии позволяют моделям работать непосредственно на устройствах пользователей, непрерывно и в фоновом режиме.

Теперь Microsoft делает шаг вперёд с Windows AI Foundry — комплексной системой, которая объединяет уже существующие инструменты с новыми возможностями. Платформа включает:

  • Готовые API для интеграции встроенных ИИ-моделей;
  • Средства кастомизации моделей Windows;
  • Поддержку моделей с открытым исходным кодом из Azure AI Foundry;
  • Локальную среду вывода (инференса), позволяющую запускать собственные модели разработчиков.

Гибкость для разработчиков

Так как современным приложениям часто требуются различные ИИ-модели от разных вендоров, Windows AI Foundry будет поддерживать интеграцию с Azure Foundry Local, а также с внешними репозиториями моделей, такими как Ollama и Nvidia NIM. Внутренний каталог Microsoft Foundry Local предложит оптимизированные ИИ-модели, совместимые с CPU, GPU и нейропроцессорами (NPU).

Windows ML и аппаратная совместимость

Среда Windows ML, основанная на DirectML, обеспечивает выполнение ИИ-моделей на широком спектре оборудования — от процессоров AMD, Intel и Nvidia до NPU от Qualcomm. Windows ML будет автоматически обновлять зависимости и подстраиваться под новое «железо» без дополнительной настройки.

Новые функции и поддержка LoRA

Microsoft также добавила поддержку LoRA (Low-Rank Adaptation) для моделей Phi Silica, что позволяет тонко настраивать модели с помощью пользовательских данных, улучшая их эффективность в узкоспециализированных задачах. Эта функция уже доступна в экспериментальной версии Windows App SDK 1.8 на чипах Snapdragon X, а вскоре появится и на ПК Copilot+ с процессорами от Intel и AMD.

Семантический поиск на базе ИИ

Ещё одна новинка — API семантического поиска, позволяющие разработчикам встраивать интеллектуальный поиск по пользовательским данным прямо в свои приложения. Эти функции работают локально, поддерживают архитектуру RAG (Retrieval-Augmented Generation) и уже доступны в закрытом тестировании для устройств Copilot+.