Google внедряет новые AI- и accessibility-функции для Android и Chrome

Google представила новые AI-функции и решения для повышения доступности в Android и Chrome. Ключевое обновление — интеграция Gemini с TalkBack, экранным диктором Android. Теперь пользователи с нарушениями зрения могут не только получать AI-генерируемое описание изображений, но и задавать Gemini вопросы о содержимом фото или даже о текущем содержимом экрана. Например, узнать бренд и цвет предмета на фото, или получить дополнительную информацию о товаре в приложении.

Expressive Captions, функция Android для создания субтитров в реальном времени на базе AI, научилась отображать интонации: теперь в субтитрах отмечаются растянутые звуки ("noooo" вместо "no") и специальные аудиометки (свист, кашель и др.). Обновление доступно на английском языке в США, Великобритании, Канаде и Австралии для Android 15 и выше.

В Chrome реализована поддержка оптического распознавания текста (OCR) в сканированных PDF: теперь экранные дикторы могут читать текст в PDF-документах, а пользователи — выделять, копировать и искать текст. Кроме того, появилась новая настройка Page Zoom для Android — можно увеличить размер текста без нарушения верстки и применить настройки как ко всем сайтам, так и к отдельным страницам.

Также Google и TechCrunch анонсировали крупную конференцию Sessions: AI в Беркли (5 июня), где выступят эксперты OpenAI, Anthropic и Cohere.

← Назад в лентуЧитать оригинал →