Артем Шейкин: Мы до сих пор не знаем, кто будет отвечать за ошибки искусственного интеллекта

Артем Шейкин: Мы до сих пор не знаем, кто будет отвечать за ошибки искусственного интеллекта

Артем Шейкин © пресс-служба Совета Федерации

Пока остается хотя бы малейшая вероятность ошибки искусственного интеллекта (ИИ) при принятии важного решения, его работу должен контролировать человек. При этом новые технологии должны активно входить в жизнь россиян, чтобы делать ее легче. Об этом в интервью «Парламентской газете» сказал член Совета по развитию цифровой экономики при Совете Федерации, сенатор Артем Шейкин.

— Артем Геннадьевич, глава государства поручил обеспечить массовое внедрение ИИ. Где, на ваш взгляд, эти технологии наиболее востребованы?

— В первую очередь в отраслях, где необходимо анализировать большие массивы данных и быстро принимать решения. Это медицина, беспилотный транспорт, производство особо сложных продуктов и ряд других. На заседаниях секции «Искусственный интеллект» Совета по развитию цифровой экономики мы последовательно изучаем все эти области, совместно с экспертами анализируем действующее законодательство, обсуждаем, какие изменения и в какой срок необходимо внести или же нужно принимать новые законы. Мы к этому готовы, поскольку понимаем, что ИИ, с одной стороны, дает практически неограниченные возможности для развития, очередного рывка вперед, а с другой — порождает новые вызовы и угрозы, на которые нужно оперативно реагировать и с точки зрения безопасности, и чтобы не остаться в хвосте передового развития. Уже закрепленный в законе механизм экспериментальных правовых режимов позволяет обкатывать технологии ИИ перед их массовым внедрением.

— Нейросети сегодня пишут дипломы за студентов, принимают управленческие решения. Это скорее вызов человечеству или подспорье всем нам?

— Думаю, это надо рассматривать как возможность для оптимизации рабочего процесса во всех сферах, где нейросети уже используются. Также нельзя забывать, что искусственный интеллект работает на основании заданных алгоритмов, которые вносит в программу человек. Поэтому необходимо использовать современные технологии во благо развития с наименьшими усилиями, чем ранее.

Читайте также:

• Для нейросетей предложили написать цифровые законы

— Какие ограничения на использование ИИ должны быть введены?

— Прежде всего нужен постоянный контроль со стороны человека, пока есть хотя бы один процент вероятности ошибки решения ИИ. Поэтому считаю, что бесконтрольное использование искусственного интеллекта возможно исключительно в тех случаях, когда ошибка не приведет к серьезным последствиям для компании, производственного цеха, интересов граждан.

— Нужен ли в России закон об искусственном интеллекте?

— Базовый закон необходим, однако говорить о конкретных юридических основах сложно, поскольку среди юристов нет единой позиции по терминологической основе, а также нет консенсуса по определению ответственного лица за принесение ущерба здоровью граждан в результате решения ИИ. Эти вопросы требуют отдельной проработки, они являются важными для развития не только законодательства, но и технологий в России.

Поделиться: