Имя автора: Стас Искаков

Участник профессиональных сообществ | НАУФОР и MOEX

Tencent Hunyuan выпускает HPC‑Ops: библиотеку высокопроизводительных операторов для вывода LLM

Tencent Hunyuan объявила о выпуске HPC‑Ops – библиотеки операторов для высокопроизводительного вывода больших языковых моделей. Это решение построено на основе […]

Tencent Hunyuan выпускает HPC‑Ops: библиотеку высокопроизводительных операторов для вывода LLM Читать дальше

NVIDIA революционизирует климатические технологии с Earth‑2 — первым полностью открытым ускоренным AI‑стеком для погоды

NVIDIA объявила о запуске Earth‑2 — первой в мире полностью открытой ускоренной AI‑платформы для прогнозирования погоды. Проект обещает объединить суперкомпьютерные

NVIDIA революционизирует климатические технологии с Earth‑2 — первым полностью открытым ускоренным AI‑стеком для погоды Читать дальше

Машинное обучение и семантические эмбеддинги меняют порядок уязвимостей CVE, опираясь не только на CVSS!

В последние годы киберриски стали одной из главных проблем для компаний любой величины, а оценка уязвимостей перешла от простого числа

Машинное обучение и семантические эмбеддинги меняют порядок уязвимостей CVE, опираясь не только на CVSS! Читать дальше

Microsoft представила VibeVoice‑ASR — объединённую модель распознавания речи, способную обрабатывать 60‑минутный аудио‑контент за один проход

Microsoft представила VibeVoice‑ASR — модель распознавания речи, способную обработать полностью часовой аудиофайл за один проход. Традиционные системы требовали разбиения записи

Microsoft представила VibeVoice‑ASR — объединённую модель распознавания речи, способную обрабатывать 60‑минутный аудио‑контент за один проход Читать дальше

Inworld AI запускает TTS-1.5 для голосовых агентов реального времени высокого качества

Inworld AI представила новую версию своего синтезатора речи — TTS‑1.5, рассчитанную на работу в реальном времени и готовую к масштабному коммерческому использованию.

Inworld AI запускает TTS-1.5 для голосовых агентов реального времени высокого качества Читать дальше

AutoGluon внедряет современные пайплайны AutoML для производственных табличных моделей с ансамблированием и дистилляцией

AutoGluon быстро стал одним из самых обсуждаемых фреймворков в области автоматизированного машинного обучения, особенно когда речь идёт о табличных данных,

AutoGluon внедряет современные пайплайны AutoML для производственных табличных моделей с ансамблированием и дистилляцией Читать дальше

Liquid AI выпускает LFM2.5‑1.2B‑Thinking – модель рассуждений с 1,2 млрд параметров, помещающаяся на устройство менее чем в 1 ГБ

Liquid AI объявила о выходе LFM2.5‑1.2B‑Thinking – модели рассуждения с 1,2 млрд параметров, размещаемой в памяти устройства менее чем на 1 ГБ.

Liquid AI выпускает LFM2.5‑1.2B‑Thinking – модель рассуждений с 1,2 млрд параметров, помещающаяся на устройство менее чем в 1 ГБ Читать дальше

Zhipu AI выпускает GLM‑4.7‑Flash: 30‑миллиардный MoE‑модель для эффективного локального кодирования и агентов

Zhipu AI объявила о выпуске модели GLM‑4.7‑Flash, представляющей собой гибридную архитектуру с 30‑млрд параметров и 3‑млрд экспертных ветвей. Такой подход

Zhipu AI выпускает GLM‑4.7‑Flash: 30‑миллиардный MoE‑модель для эффективного локального кодирования и агентов Читать дальше

Microsoft Research выпускает OptiMind — 20‑миллиардная параметрическая модель, превращающая естественный язык в готовые к решению модели оптимизации

Microsoft Research объявила о выпуске OptiMind — модели с 20 млрд параметров, способной преобразовывать обычный текст в готовые к решению оптимизационные

Microsoft Research выпускает OptiMind — 20‑миллиардная параметрическая модель, превращающая естественный язык в готовые к решению модели оптимизации Читать дальше

Кодовый путеводитель: как повторные попытки запускают цепочку отказов в RPC и событийных архитектурах

В распределённых системах запрос‑ответ (RPC) и событийно‑ориентированные архитектуры стали базой большинства облачных сервисов, от онлайн‑банкинга до потоковых платформ. При этом

Кодовый путеводитель: как повторные попытки запускают цепочку отказов в RPC и событийных архитектурах Читать дальше

Google AI выпускает TranslateGemma: новое семейство открытых моделей перевода на основе Gemma 3 с поддержкой 55 языков

Google AI объявила о запуске TranslateGemma – новой семейства открытых моделей машинного перевода, построенных на базе Gemma 3. Проект позиционирует себя

Google AI выпускает TranslateGemma: новое семейство открытых моделей перевода на основе Gemma 3 с поддержкой 55 языков Читать дальше

DeepSeek AI исследователи представили Engram – условную ось памяти для разрежённых больших языковых моделей

DeepSeek AI представила Engram — новую условную ось памяти, разработанную специально для разреженных больших языковых моделей. По сути, Engram позволяет

DeepSeek AI исследователи представили Engram – условную ось памяти для разрежённых больших языковых моделей Читать дальше

Прокрутить вверх