Как научиться доверять ИИ? Ответственный ИИ укрепляет доверие и закладывает основу для успешного масштабирования, применяя подход «человек прежде всего» — используя технологии, чтобы помочь людям принимать более обоснованные решения, сохраняя при этом их жесткую ответственность с помощью правильных процессов управления и технических шагов. Наше исследование AI:Built to Scale говорит о том, что ответственность — это больше, чем «приятно иметь»: специалисты по стратегическому масштабированию ИИ значительно чаще информируют своих сотрудников о том, как они справляются с ответственным ИИ. Вы видите ценность ИИ… но как вы ему доверяете? ИИ открывает огромные возможности: от повышения эффективности и улучшения результатов до полного переосмысления отраслей. На этом фоне легко забыть, что решения ИИ также имеют реальное влияние на жизнь людей, поднимая серьезные вопросы, касающиеся этики, доверия, законности и ответственности. Предоставление машинам возможности принимать решения может подвергнуть бизнес значительным рискам, включая проблемы с репутацией, занятостью/человеческими ресурсами, конфиденциальностью данных, здоровьем и безопасностью. Введите: Ответственный ИИ . Эта тема широко освещается в средствах массовой информации и вызывает серьезное внимание клиентов в государственном и частном секторах.

Что происходит, когда решение машины оказывается ошибочным или незаконным? Потенциальные штрафы и санкции могут поставить под угрозу коммерческую устойчивость бизнеса. А как насчет других непредвиденных последствий ? ИИ уже показал, что он может быть предвзятым, чего нельзя было ожидать, и может нанести ущерб репутации бренда. Например, Amazon SM пришлось отказаться от своего инструмента рекрутинга на основе искусственного интеллекта, который, по-видимому, демонстрировал предвзятое отношение к женщинам . И если понадобится, как человек узнает, когда нужно вмешаться в процесс, управляемый машиной? Создайте доверие к тому, как вы управляете ИИ Совет директоров должен знать, какие обязательства он несет перед своими акционерами, сотрудниками и обществом в целом, чтобы обеспечить развертывание ИИ без непредвиденных последствий. Генеральный директор может спросить, как я могу быть уверен, что мы продумали возможные риски для бренда и PR, связанные с искусственным интеллектом? Между тем, директор по рискам и директор по информационной безопасности должны подумать: если мы развернем ИИ, как мы можем сделать это так, чтобы это соответствовало правилам защиты данных? Создание надежной этической основы для ИИ позволяет вам «спроектировать» юридические и этические проблемы в той мере, в какой это возможно. Однако речь идет не только о создании соответствующих структур управления. Также важно перевести эти этические и правовые рамки в статистические концепции, которые могут быть однозначно представлены в программном обеспечении.

Итак, с чего начать? Во-первых, убедитесь, что соображения по поводу ИИ встроены в ваши основные ценности и надежные процессы соответствия. Затем вам нужно будет внедрить конкретные технические рекомендации, чтобы убедиться, что системы ИИ безопасны, прозрачны и подотчетны для защиты ваших сотрудников, клиентов, гражданских лиц и других организаций. Затем определите новые и меняющиеся роли и организуйте надлежащее обучение технических специалистов и вашей разнообразной команды экспертов, чтобы они понимали свои новые роли и обязанности. Все эти элементы являются частью благоприятного для инноваций плана ответственного искусственного интеллекта , который вы можете применять в разных функциях и проектах, что позволяет вам понимать и управлять этическими последствиями всего, что вы делаете. Поместите этику в основу, чтобы построить и сохранить доверие Проектируйте в этических рамках, когда вы планируете ИИ. Мы программируем алгоритмы так, чтобы они давали нам именно то, о чем мы просили, поэтому нам не следует удивляться, когда они это делают. И проблема в том, что простые алгоритмы считают неизменными все данные, даже данные о наших предпочтениях, доходах и жизненной ситуации.

Что может случиться тогда, так это то, что алгоритмы могут поймать людей в ловушку их происхождения, истории или стереотипа. Эти «плохие петли обратной связи» могут привести к негативным последствиям для общества. Упомянутые проблемы не присущи самим алгоритмам машинного обучения. Вместо этого проблемы возникают из-за того, как они взаимодействуют с обществом, и из-за непредвиденных последствий, которые могут возникнуть в результате этих взаимодействий. Таким образом, жизненно важно ставить этические аспекты в основу разработки каждого нового алгоритма. Точно так же, как конфиденциальность данных и кибербезопасность перешли от вопросов на уровне отдела к совету директоров, ответственное управление ИИ должно быстро стать более важным для всех организаций, которые его используют. .