Закончилась презентация от Google. Зал аплодирует, кто-то в шоке, всё очень мощно. Демки действительно эффектные, особенно видео со звуком — смотрится впечатляюще.
Но если честно… я попробовать не смог так как она еще недоступна в моей стране.
Вот что об этом говорит Chat GPT
На сегодняшний день, 21 мая 2025 года, доступ к Veo 3 официально предоставляется только пользователям из США, оформившим подписку Google AI Ultra. Этот доступ реализован через приложения Gemini и Flow, а также для корпоративных клиентов через платформу Vertex AI .
Google планирует расширить географию доступа к Veo 3 в ближайшем будущем, однако конкретные сроки и страны пока не объявлены .
Для пользователей из Европы официального доступа к Veo 3 пока нет. Некоторые пользователи сообщают о возможности обхода региональных ограничений с помощью VPN-сервисов, позволяющих подключаться через серверы в США . Однако стоит учитывать, что такой способ может противоречить условиям использования сервисов Google и не гарантирует стабильную работу.
Что получается?
На бумаге (и на видео) всё выглядит круто, но в реальности — далеко не все смогли это попробовать.
Давайте теперь перейдем к тому, что показали:
Veo 3 — Новая версия флагманского видеогенератора от Google. Улучшена по всем фронтам, добавлена нативная генерация звука и диалогов с липсинком — настоящий шаг вперёд. Уже доступна.
Imagen 4 — Снова обновление модели генерации изображений — лучше, быстрее, точнее. Вполне может стать новой SOTA. Уже в продакшене.
Agent Mode в Gemini — Новый функционал превращает ИИ в полноценного цифрового агента: он сможет искать квартиры, записывать на встречи и многое другое — с помощью протокола MCP. Скоро.
AI Mode в Поиске — Расширяет возможности поиска: теперь можно искать билеты, бронировать столики, отслеживать цены, совершать покупки через Google Pay — всё автоматически. Часть функций уже доступна, остальные обещают этим летом, включая Deep Search.
Виртуальная примерка одежды — Через ИИ, обученный на Imagen — примерка прямо в поиске. В Google Labs уже сегодня.
Перевод речи в реальном времени (Google Meet) — Тон, темп, интонации — всё сохраняется. Пока поддерживаются английский и испанский. В ближайшие недели добавят новые языки.
Gemini Live с Project Astra — Обновлённый режим взаимодействия — теперь с поддержкой камеры и трансляции экрана. В будущем появится интеграция с Gmail, Maps, Keep и Tasks. Уже в Gemini App.
Personal Context в Gemini — Нейросеть теперь может использовать ваши личные данные (с разрешения), например, из Gmail или Drive. Немного тревожно, но звучит мощно. Пока доступна только история поиска, но со временем функционал расширят.
Для разработчиков
Jules — агент для кода от Google. Ответ на OpenAI Codex. Был в закрытом тесте с декабря, теперь доступен всем: Jules google
Gemini Diffusion — Экспериментальная диффузионная модель: в 5 раз быстрее Flash Lite, с высоким качеством вывода по коду и математике. Скорость — 1479 токенов в секунду.
Поддержка MCP в SDK Gemini — Теперь SDK совместим с Model Context Protocol от Anthropic. Это открывает доступ к другим сервисам прямо из агента.
Обновлённый Gemini 2.5 Flash — Повышена точность на reasoning-задачах, длинных контекстах и коде. К тому же, на 22% эффективнее по токенам.
Gemini API с поддержкой звука — Text-to-speech прямо в API: 2 голоса, 24+ языка, шёпот и интонации. В Live API уже доступна версия 2.5 Flash с аудиодиалогами.
Thinking Budgets в Gemini 2.5 — Новая функция управления вычислительными ресурсами: баланс между качеством, скоростью и стоимостью. В 2.5 Flash — уже есть, в 2.5 Pro появится в ближайшие недели.
Подписка
Veo 3 доступна только в рамках подписки AI Ultra: $125 за первый квартал, потом — $250.
Меня же больше интересует, что входит в подписку за $20 (с одним бесплатным месяцем) — сколько видео можно делать в Veo 2? Кто в курсе — дайте знать.
Впечатления от VEO 3
Физика — огонь, действительно интересно, что они делают. Но снова упираемся в ограничения: региональные блокировки, сложный доступ. Как и в случае с Sora, в Европе всё это работать не будет. FLOW — недоступен. Так что лично я пока отношусь ко всему сдержанно. Сделайте уже нормальный открытый доступ, чтобы можно было полноценно тестировать продукт, а не оживлять только камни.
Вывод:
Google действительно разогнался — от потребительских инструментов до глубокой работы с ИИ-агентами. Впечатляющий шаг в сторону повседневной интеграции ИИ в жизнь, бизнес и разработку.
P.S. Презентация на самом деле крутая. Обязательно посмотрите официальное видео в начале поста.
Комментариев