ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ СУПЕРНИКА NORNICKEL CONNECT
Пульс технологий
Установите кодовое слово в Супернике!
* с его помощью вы всегда сможете войти в приложение, если, например, забыли пароль или сменили телефон
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

В руководстве компаний зачастую не понимают, как работает ИИ

65% руководителей компаний не могут объяснить, как системы искусственного интеллекта принимают решения. Непонимание рисков, которые связаны с этой технологией, может может навредить бизнесу и привлечь к себе избыточное внимание регулирующих органов.

Установите кодовое слово в Супернике
Устанавливай приложение «Цифроникель». Проходи обучение в игровой форме. Копи знания, получай баллы, участвуй в конкурсах и получай ценные призы.
КАК УСТАНОВИТЬ
КОДОВОЕ СЛОВО?

Вывод о тотальном отсутствии понимания принципов работы ИИ на уровне топ-менеджмента можно сделать из опроса, который провела компания по оценке кредитоспособности FICO и разработчики ПО Cornium. Они опросили 100 человек, которые занимают должности директоров по аналитике, директоров по ИИ или директоров по данным, чтобы понять, насколько ответственно воспринимают советы, которые дают им электронные помощники. 

73% руководителей цифровых направлений не могут донести до других членов совета директоров необходимость следить за этическими факторами при разработке ИИ моделей. Или лишь 20% компаний активно следят за тем, чтобы модели, которые они применяют на практике, не нарушали этических принципов. 

В исследовании говорится, что лишь 39% руководителей понимают, какую роль модели ИИ играют в их компаниях, и только 33% респондентов понимают, как соотносятся этика и ИИ. 

Лучше всего понимают необходимость соблюдения этических принципов в отделах по работе с правительственными органами (80%) и в ИТ-сфере (70%). Именно они первыми сталкиваются с негативными последствиями, если что-то идет не так. Например, в мае Google объявил о планах увеличить отдел по этическим вопросам в сфере ИИ до 200 человек, после того, как из компании ушли ведущие разработчики. Сотрудники были обеспокоены тем, что к их мнению не прислушивались. Они указывали, что создаваемые в компании алгоритмы построены на некачественных данных. А это, в свою очередь, привело к тому, что модели дискриминировали различные группы людей.

«За последний год все больше и больше компаний наращивают объем ресурсов, зарезервированных под создание ИИ систем. Многие организации всё чаще используют ИИ, чтобы автоматизировать ключевые процессы, результатом которых иногда становятся решения, влияющие на судьбы людей: и акционеров, и потребителей. Высшее руководство и советы директоров должны понимать важность создания этически правильных ИИ-инструментов и мониторинга результатов их применения. Принимаемые ИИ-системами решения должны быть справедливыми, прозрачными и ответственными», — заявил в пресс-релизе директор по анализу данных в FICO Скотт Золди.

Почти половина респондентов планирует увеличить расходы на разработку ИИ-продуктов с целью увеличить производительность и повысить предсказательную мощь ИИ-моделей. Вместе с этим лишь 39% планируют усилить контроль над ИИ. И только 28% руководителей готовы развивать направление мониторинга таких систем. 43% директоров считают, что их обязанности по этическому контролю над ИИ установлены соответствующими законами, и главное — следить за их выполнением. Они не собираются прилагать дополнительных усилий, чтобы контролировать, как решения ИИ влияют на жизни людей, и не считают необходимым следить, к каким выводам приводят алгоритмы сегментации аудитории, модели распознавания лиц или системы рекомендаций.

В 80% компаний отсутствует система этического контроля над ИИ. Сейчас только 20% опрошенных активно следят за решениями и прогнозами, которые делают их модели. Лишь у 33% компаний есть группа по валидации моделей, и только в 38% респондентов используют методы, которые сглаживают результаты некорректного сбора данных. 

90% респондентов осознают, что отсутствие критического анализа решений, которые принимает ИИ, является одним из главных факторов, замедляющих распространение этой технологии. 

Другие исследования в этой сфере приходили к схожим выводам. Например, аналитики из Boston Consulting Group изучили 1000 компаний и обнаружили, что только в половине из них модели ИИ используются ответственно, а их решения критически анализируются. 

Но вкладываться в контроль над ИИ — выгодно, уверены аналитики из Capgemini. Они пришли к выводу, что сотрудники и клиенты более лояльно относятся к компаниям, которые ответственно подходят к созданию систем ИИ. У таких компаний растет выручка, появляются постоянные клиенты и увеличиваются шансы на положительную рекомендацию от потребителей. 

Вывод исследования FICO такой: бизнес оценил эффективность ИИ в сфере автоматизации принятия решений. Однако мало кто из руководства компаний полностью осознает риски, которые связаны с этой технологией. И сейчас необходимо сделать это. В противном случае компании могут столкнуться с негативной реакцией клиентов и привлечь к себе избыточное внимание регуляторов. 

В приложении «Цифроникель» есть курс про ИИ, который состоит из пяти уроков. Из него можно узнать, как устроены такие системы, какие данные используются для их создания и сколько труда нужно для автоматизации принятия решений. Так же из уроков «Цифроникеля» становится понятно, что трудность адаптации к меняющимся социальным условиям — одно из ключевых ограничений ИИ. Алгоритмы машинного обучения по своей структуре устроены так, чтобы выявлять в данных взаимосвязи, которые, предположительно, являются постоянными и неизменными. Например, Amazon отказалась от систем ИИ при найме сотрудников: для их обучения использовались исторические данные, которые показывали, что большинство программистов — мужчины. И система начала отбраковывать очень много сильных программистов из-за того, что появлялось всё больше программистов-женщин.

В ближайшее время вопрос об этике ИИ-систем выйдет на международный уровень. Европейская комиссия готовит объемный законопроект, который будет регулировать такие системы. Они будут обязаны работать без дискриминации людей по какому-либо признаку, уважать фундаментальные права человека, хранить приватность использованных при обучении данных. Особенно сильным контроль будет над теми системами, от решения которых будет зависеть жизнь и здоровье человека. Например, автопилотами автомобилей и другими подобными алгоритмами. В законопроекте предусмотрены серьезные штрафы: до 6% от мировой годовой выручки компании-нарушителя.

 

УЗНАТЬ БОЛЬШЕ
Читайте также
ЦИФРОВОЙ ИНВЕСТОР ЦИФРА В «НОРНИКЕЛЕ» ПУЛЬС ТЕХНОЛОГИЙ