Переход к объяснимому ИИ уже начался, и мы ожидаем, что в течение трех лет он станет доминирующим на рынке ИИ для бизнеса. Это даст людям возможность предпринимать корректирующие действия, если это необходимо, на основе объяснений, которые им дают машины. Но как он это сделает? Есть три способа манифестации и объяснения причин решений ИИ, принимаемых машинами: 1 Использование данных машинного обучения — использование сравнений с другими примерами для обоснования решений 2 Использование самой модели - объяснения имитируют модель обучения, абстрагируя ее с помощью правил или комбинируя ее с семантикой. 3 Гибридный подход, сочетающий данные и модель, предлагает метаданные и пояснения на уровне функций. «Будущее ИИ заключается в том, чтобы люди могли сотрудничать с машинами для решения сложных проблем. Как и любое эффективное сотрудничество, это требует хорошего общения, доверия и понимания».   Два варианта использования объяснимого ИИ № 1 – Обнаружение аномальных командировочных расходов Большинство существующих систем отчетности по командировочным расходам используют предварительно определенные представления, такие как период времени, услуга или группа сотрудников.

Хотя эти системы нацелены на систематическое обнаружение аномальных расходов, они обычно не могут объяснить, почему выделенные претензии считаются аномальными. Чтобы решить эту проблему, связанную с недостаточным пониманием контекста заявлений о аномальных командировочных расходах, разработала и построила систему командировочных расходов, включающую объяснимый искусственный интеллект. Сочетая граф знаний и технологии машинного обучения, система предоставляет информацию для объяснения любых аномальных заявлений в режиме реального времени. № 2 – Управление рисками проекта Большинство крупных компаний ежегодно управляют сотнями, если не тысячами, проектов с участием множества поставщиков, клиентов и партнеров. Ожидания компании часто расходятся с первоначальными оценками из-за сложности и рисков, присущих важнейшим контрактам. Это означает, что лицам, принимающим решения, нужны системы, которые не только прогнозируют уровень риска каждого контракта или проекта, но и дают действенное объяснение этих прогнозов. Чтобы решить эти проблемы, применила объяснимый ИИ и разработала пятиэтапный процесс для объяснения уровня риска проектов и контрактов.

Измерение эффективности Для оценки его ценности и эффективности можно применить восемь показателей. Эти меры охватывают элементы, которые нужны людям в объяснении, но не обязательно все они могут быть достигнуты. В то время как объяснимый ИИ будет использовать и раскрывать методы, которые решают эти вопросы, мы, как люди, все же должны ожидать компромисса между ценностью и эффективностью. Понятность Сколько усилий нужно человеку, чтобы его интерпретировать? Краткость Насколько это лаконично? Практичность Насколько действенно объяснение? Что мы можем с этим сделать? Возможность повторного использования Может ли он быть интерпретирован/повторно использован другой системой ИИ? Точность Насколько точно объяснение? Полнота Объясняет ли «объяснение» решение полностью или только частично? Технологическая революция, в основе которой люди Объяснение имеет фундаментальное значение для человеческого мышления, оно руководит нашими действиями, влияет на наше взаимодействие с другими людьми и побуждает к расширению наших знаний. ИИ обещает помочь нам определить опасные промышленные объекты, предупредить нас о надвигающихся отказах оборудования, порекомендовать лечение и принять бесчисленное множество других решений. Обещания этих систем не будут реализованы, если мы не поймем, не поверим и не будем действовать в соответствии с их рекомендациями. Чтобы это стало возможным, необходимы качественные объяснения.

Прочтите полный отчет, чтобы узнать больше о том, как объяснимый ИИ поможет определить будущее работы. .