Интервью

«Яндекс» научил «Алису» описывать картинки в интернете

«Яндекс» научил «Алису» описывать картинки в интернете
Фото: Яндекс
«Яндекс» добавила в свой браузер функцию на основе нейросети «Алиса», которая анализирует и подробно описывает содержимое изображения в интернете. Это позволяет незрячим и слабовидящим людям воспринимать визуальный контент — от фотографий в соцсетях до иллюстраций в статьях и товаров в магазинах, сообщили в пресс-службе компании.

Как уточнили в «Яндексе», нейросеть не просто перечисляет объекты, а понимает их взаимосвязь и контекст, формируя осмысленные описания. Так, например, она может охарактеризовать фасон, цвет и посадку платья на фотографии из интернет-магазина.

Чтобы воспользоваться новым функционалом, нужно в контекстном меню или на панели над изображением выбрать опцию «Описать картинку». «Алиса» не только сгенерирует текст, но и озвучит его, отметили в пресс-службе.

Функция стала дополнением к другим инструментам браузера для пользователей с особенностями зрения, таким как режим чтения, темная тема и встроенная «умная» камера для распознавания текстов и предметов.

В России растет число пользователей нейросетей. Согласно данным ВЦИОМ, к помощи искусственного интеллекта в течение 2025 года прибегал каждый второй житель РФ. Самыми популярными сервисами стали ChatGPT (27%), YandexGPT (23%) и DeepSeek (20%). Чаще всего ИИ используется для поиска информации (63%), создания текстов, музыки и изображений (38%), а также для анализа данных и автоматизации задач (36%).

Больше новостей читайте в нашем телеграм-канале @expert_mag

Последние материалы
В Нижнем Новгороде завершился ЭКГ-форум ответственного бизнеса «СО.ЗНАНИЕ»
Какие инструменты способствуют устойчивому развитию регионов и предприятий
Не общий сбор
Почему малые аэропорты недовольны правилами нового авиационного платежа
Цифровые активы запузырились
Аналитики предрекли кратный рост дефолтов на рынке ЦФА