Спрос велик. К ИИ обращаются не только студенты при написании курсовых, но и бизнес, а также представители критически важных сфер, например, медицины. При этом один из недавних обзоров показал, что 94% исследований машинного обучения в здравоохранении не прошли даже первую стадию клинических испытаний. Как в таком случае можно говорить о надёжности ИИ.
Суть. Тем и ценнее открытие учёных из T-Bank AI Research: мы сможем не только понимать, почему модель выдала тот или иной ответ, но и в дальнейшем влиять на этот процесс, повышая его точность и в целом доверие к ИИ. Как отмечает CEO AI-лаборатории NDT Валерий Ковальский, если бизнесу проще понять, как работает ИИ, — он быстрее принимает решение о его внедрении. А это важное конкурентное преимущество на рынке.
Этический вопрос. ИИ-модели не застрахованы от социальной предвзятости — стереотипы, царящие в обществе, могут попасть в обрабатываемый массив данных. Отсюда и довольно неэтичное поведение многих моделей. Например, Amazon столкнулся с критикой, когда интеллектуальная рекрутинговая система компании отбирала кандидатов по гендерному признаку.
И новый метод поможет понять, как работают модели, и в дальнейшем позволит разработать методы для их контроля. По словам разработчиков, благодаря последующим технологиям удастся отслеживать, когда модель хочет сказать что-то некорректное, и предотвращать это. Так что даже такие негативные аспекты прогресса можно нивелировать.