Google внедряет новые AI- и accessibility-функции для Android и Chrome
Google представила новые AI-функции и решения для повышения доступности в Android и Chrome. Ключевое обновление — интеграция
Gemini с TalkBack, экранным диктором Android. Теперь пользователи с нарушениями зрения могут не только получать AI-генерируемое описание изображений, но и задавать Gemini вопросы о содержимом фото или даже о текущем содержимом экрана. Например, узнать бренд и цвет предмета на фото, или получить дополнительную информацию о товаре в приложении.
Expressive Captions, функция Android для создания субтитров в реальном времени на базе AI, научилась отображать интонации: теперь в субтитрах отмечаются растянутые звуки ("noooo" вместо "no") и специальные аудиометки (свист, кашель и др.). Обновление доступно на английском языке в
США,
Великобритании, Канаде и
Австралии для Android 15 и выше.
В Chrome реализована поддержка оптического распознавания текста (OCR) в сканированных PDF: теперь экранные дикторы могут читать текст в PDF-документах, а пользователи — выделять, копировать и искать текст. Кроме того, появилась новая настройка Page Zoom для Android — можно увеличить размер текста без нарушения верстки и применить настройки как ко всем сайтам, так и к отдельным страницам.
Также Google и TechCrunch анонсировали крупную конференцию Sessions: AI в Беркли (5 июня), где выступят эксперты
OpenAI,
Anthropic и Cohere.
Читайте также
Google всё-таки не откажется от сторонних куки в Chrome
Google внедряет AI-защиту от мошенничества в Chrome
3-й день AI-викторины TechCrunch: последний шанс выиграть билеты на конференцию
LM Arena, организация за популярными AI-лидербордами, привлекла $100 млн
Чат-бот Gemini от Google получил расширенные инструменты редактирования изображений