Любые инвестиции в технологию обеспечения соответствия должны включать меры предосторожности, чтобы убедиться, что технология работает правильно и эффективно. Например, машинное обучение может помочь компании обнаружить мошеннические схемы в торговых операциях или отметить проблемных продавцов, но использование необъективных или недостаточных данных может привести к ложным срабатываниям.
Преступники также используют ИИ. Системы искусственного интеллекта могут разрабатывать сложные вредоносные программы, учиться на неудачных атаках и создавать более правдоподобные фишинговые кампании. Компании, использующие ИИ и автоматизацию для обнаружения таких атак и реагирования на них, обнаруживают утечку данных гораздо быстрее, чем те, кто этого не делает, и, согласно исследованию IBM, снижают стоимость утечки почти на 2 миллиона долларов США8. Несмотря на это, только половина исследованных организаций планировала увеличить инвестиции в безопасность после взлома.
Организациям также следует подумать о том, чтобы увеличить расходы на внутренний контроль, который ограничивает доступ к данным и обеспечивает подотчетность. Неадекватный контроль является самым высоким внутренним риском, о котором сообщается в исследовании 2023, проведенном EY по заказу EI Studios. Встраивание рабочих процессов со встроенными средствами контроля снижает количество ошибок и мошенничества, создавая оцифрованные карты соответствия, которые предоставляют подробную информацию о ключевых областях риска.
Расширенный анализ данных также позволяет предприятию интегрировать управление рисками со стратегией и управлением эффективностью. Например, всесторонний анализ рисков, связанных с возникающими сценариями, помогает совету директоров определить, насколько жизнеспособны его стратегии и бизнес-модели, как описано в исследовании EY Global Board Risk Survey 2023, которое показало, что советы директоров с высокой устойчивостью эффективно используют данные и технологии для раннего обнаружения рисков и улучшения процесса принятия решений.
Разработка устойчивой стратегии в области данных и технологий, которая соответствует основным ценностям
Ответственное использование технологий не всегда является стратегическим приоритетом для многих компаний. Почти половина респондентов, принявших участие в опросе EI Studios, проведенном по заказу EY в 2023 году, сообщили, что в их организации отсутствует корпоративная стратегия в отношении конфиденциальности данных, которая хорошо регулируется в большинстве юрисдикций и требует надежного управления данными.
Организациям необходимо разработать комплексную стратегию и видение этичного управления технологиями и данными, как это сделали многие компании в отношении программы устойчивого развития. Но прогресс в этой области вызывает тревогу. По данным исследования EY Global Board Risk Survey (GBRS) 2023, менее трети директоров советов директоров считают, что их надзор за рисками, возникающими в результате цифровой трансформации, очень эффективен.
Формулировка миссии необходима для того, чтобы показать, как предприятие управляет технологиями и данными надлежащим и оправданным способом, соответствующим его основным ценностям. Например, компания Adobe четко заявила о своей приверженности ответственному использованию технологий на благо общества. В Принципах этики ИИ описаны действия, которые производитель программного обеспечения предпринимает, чтобы избежать вредных предубеждений в отношении ИИ и привести свою работу в соответствие со своими ценностями9.
В своем подходе к созданию ответственного и надежного ИИ Microsoft руководствуется как этическими соображениями, так и соображениями ответственности10. Он призывает разработчиков технологий создать внутренние контрольные органы для обеспечения надзора и руководства, чтобы их системы ИИ были инклюзивными, надежными, справедливыми, подотчетными, прозрачными, частными и безопасными.
Этичное использование технологий невозможно без формирования культуры, в которой честность так же важна, как и прибыль. Например, Volkswagen Group заявляет, что добросовестность и соответствие нормативным требованиям имеют такой же стратегический и операционный приоритет, как доходы от продаж, прибыль, качество продукции и привлекательность работодателя11.
Согласно исследованию IBM, средняя стоимость утечки данных вырастет почти до 4,5 миллионов долларов США в 2023 году12. Штрафы со стороны регулирующих органов также растут: компания Meta получила санкции в размере 1,2 млрд. евро за нарушение GDPR13.
Организации, стремящиеся создать этичную и устойчивую стратегию использования технологий и данных, могут адаптировать меры, используемые для других инициатив по устойчивому развитию, таких как защита окружающей среды и надлежащее управление. Это включает в себя установление целей и бюджетов, измерение эффективности и публичное информирование о прогрессе. Убедительные усилия в области устойчивого развития могут в значительной степени помочь решить проблемы заинтересованных сторон и даже привлечь соискателей.
Некоторые виды деятельности в области устойчивого развития, такие как борьба с изменением климата, уже переходят из разряда добровольных обязательств в разряд обязательных, поскольку регулирующие органы устанавливают требования к раскрытию информации для публичных компаний14. Ожидается, что корпоративная стратегия и принципы этических технологий будут иметь ту же направленность, что и программа устойчивого развития, если они еще не имеют такой направленности.
Обеспечение доверия к искусственному интеллекту с помощью надежного подхода к управлению - одна из пяти стратегических инициатив, которые команда EY рекомендует организациям, стремящимся максимально использовать потенциал искусственного интеллекта и одновременно справиться с его проблемами. Этот подход включает в себя:
- Создание совета или комитета по искусственному интеллекту, а также этических принципов, которыми должны руководствоваться политики и процедуры
- Отслеживание всех соответствующих действующих норм и обеспечение соответствия всем новым вариантам использования
- Определение средств контроля для устранения возникающих рисков
- Подготовка к предстоящим законодательным актам
Приоритет этического использования ИИ и других появляющихся технологий означает, что руководители должны быть осторожны, чтобы не впасть в заблуждение, когда "говорят-делают", прикрываясь тем, что поступают правильно. Этот разрыв четко прослеживается в отчете EY Global Integrity Report 2022, в котором 58% членов совета директоров заявили, что будут очень или очень обеспокоены, если их решения станут предметом общественного контроля, а 42% сообщили, что их компания готова терпеть неэтичное поведение руководителей высшего или старшего звена.
Рост GenAI открывает новые возможности и риски
Представьте себе два дверных проема - один с надписью "технологические возможности", другой - "технологический риск". Какую дверь Вы откроете первой? Что важнее для Вашей организации? Что преграждает Вам путь и кто может наступать Вам на пятки?
GenAI как никогда усложнил баланс между возможностями и рисками при внедрении технологий. Его широкое распространение в 2023 году повысило осведомленность о потенциале всех типов ИИ, а также о его недостатках. Общественность хочет знать, как можно предотвратить создание искусственным интеллектом ложной информации, необъективных результатов и лишить их работы.
Большие языковые модели (LLM), такие как ChatGPT, становятся переломным моментом для юридических и нормативных служб благодаря своей способности анализировать и обобщать огромное количество документов. Но профессионалам, хорошо знакомым с рисками конфиденциальности и кибербезопасности, может быть трудно оценить новые угрозы, исходящие от ИИ. Мы уже видели, как юристы ссылались на случаи, придуманные искусственным интеллектом, поэтому важно, чтобы результаты были подтверждены другими интеллектуальными инструментами и/или людьми.
Организации, которые пытаются снизить риски GenAI, запрещая его использование, могут столкнуться с обратной стороной этой стратегии. Более четверти сотрудников, ответивших на онлайн-опрос Reuters-Ipsos в июле 2023 года, заявили, что регулярно пользуются OpenAI ChatGPT на работе, хотя только 22% из этих пользователей сказали, что их работодатели прямо разрешили им это делать15. Ограничение сотрудников одобренными компанией инструментами GenAI может привести к обходным путям, поэтому очень важно разработать политики, стандарты и процедуры независимо от того, как ИИ используется в организации.
Даже компании, разрешившие использование GenAI, могут не иметь полного представления о том, как он применяется, и о сопутствующих рисках. По данным исследования MIT, более половины неудач ИИ происходит из-за "теневого ИИ" или инструментов сторонних производителей, которые используются в 78% организациях по всему миру16.
Компании, рассматривающие инвестиции в GenAI, должны сосредоточиться на проблемах, которые они пытаются решить, и на роли, которую будут играть данные. Есть ли у организации необходимые данные? Понимает ли он, как были получены данные, каковы их ограничения и что они собой представляют? Можно ли использовать эти данные для создания LLM? Отсутствие хорошего управления данными может привести к множеству рисков - от необъективных результатов до утечки данных. Даже если компания все это делает правильно, часто возникают проблемы с информированием о действиях в форме, понятной руководству, инвесторам, сотрудникам и другим заинтересованным сторонам.
Реальность такова, что независимо от того, какую дверь Вы откроете первой, Вы обязательно окажетесь в одной и той же комнате. Появляющиеся технологии с потенциалом, меняющим ход событий, всегда будут сопряжены с множеством юридических и репутационных рисков, которые необходимо решать стратегически.