
Мой блог:
Smart-Lab.ru →
Стас Искаков — практикующий трейдер и эксперт по финансовым рынкам с 2015 года.
Ключевой опыт и достижения 2015–2025:
- Торгует на российском и международном рынках: акции, фьючерсы, валюты (среднегодовая доходность 2020–2024 — 45–65%)
- 2023–2025 — протестировал 35+ брокеров и платформ: исполнение ордеров, выводы в рублях, работа под санкциями
- С 2025 года ведёт блог на Smart-Lab.ru
- Провёл 25+ вебинаров и личных консультаций по риск-менеджменту, ИИС и ETF
- Участник профессиональных сообществ трейдеров и инвесторов MOEX
Специализация — практические стратегии для розничных трейдеров и инвесторов: от внутридневной торговли до долгосрочных портфелей. Всё публикуемое основано на реальных сделках и анализе 2025 года.
Все материалы носят информационно-аналитический характер и не являются индивидуальной инвестиционной рекомендацией (ФЗ-39 «О рынке ценных бумаг»).
Страница обновлена: 3 декабря 2025
Microsoft Research выпускает OptiMind — 20‑миллиардная параметрическая модель, превращающая естественный язык в готовые к решению модели оптимизации
Microsoft Research объявила о выпуске OptiMind — модели с 20 млрд параметров, способной преобразовывать обычный текст в готовые к решению оптимизационные модели. Это первый крупный шаг в сторону «язык‑в‑оптимизацию», когда инженеры и аналитики смогут формулировать задачи на естественном языке, а система автоматически генерирует математическую формулировку и передаёт её в любой промышленный
Кодовый путеводитель: как повторные попытки запускают цепочку отказов в RPC и событийных архитектурах
В распределённых системах запрос‑ответ (RPC) и событийно‑ориентированные архитектуры стали базой большинства облачных сервисов, от онлайн‑банкинга до потоковых платформ. При этом механизм автоматических повторов запросов, который кажется безобидным, часто превращается в скрытый источник масштабных сбоев. Каждый дополнительный повтор увеличивает нагрузку на уже нагруженный сервис, а в случае цепочки зависимостей небольшая задержка
Google AI выпускает TranslateGemma: новое семейство открытых моделей перевода на основе Gemma 3 с поддержкой 55 языков
Google AI объявила о запуске TranslateGemma – новой семейства открытых моделей машинного перевода, построенных на базе Gemma 3. Проект позиционирует себя как прямой конкурент коммерческим системам, предлагая поддержку сразу 55 языков, от английского и испанского до малойкофийского. Внутри модели используют трансформер‑архитектуру с 2,7 млрд параметров, что почти вдвое превышает предыдущий Gemma 2. По
DeepSeek AI исследователи представили Engram – условную ось памяти для разрежённых больших языковых моделей
DeepSeek AI представила Engram — новую условную ось памяти, разработанную специально для разреженных больших языковых моделей. По сути, Engram позволяет модели хранить и извлекать контекстные фрагменты информации, не перегружая её основной параметрический вес. Технология опирается на принципы нейронных гетерофазных сетей, где отдельные «ячейки» памяти активируются только при совпадении определённых условий.
Anthropic запускает Cowork как локального агента файловой системы для Claude, облегчающего ежедневную работу
Anthropic представила Cowork — локального агента файловой системы для Claude, способного работать напрямую с вашими документами, таблицами и кодом без выхода в облако. Это шаг, который меняет правила игры для корпоративных пользователей, ищущих более безопасные и экономичные решения. По данным Gartner, к 2025 году 70 % компаний планируют развернуть гибридные ИИ‑модели, где
Построение многошагового конвейера «Кресендо» для красной команды: оценка и нагрузочное тестирование безопасности больших языковых моделей с помощью Garak
В последние годы рост возможностей больших языковых моделей превратил их из академического эксперимента в ключевой элемент коммерческих сервисов. Компании тратят миллиарды долларов на внедрение чат‑ботов, автоматизацию клиентской поддержки и генерацию контента. По оценкам аналитической фирмы IDC, рынок искусственного интеллекта в 2023 году уже достиг 210 миллиардов долларов, а к 2027