Правозащитный орган Евросоюза предупредил о рисках использования искусственного интеллекта для профилактики правонарушений, медицинской диагностики и целенаправленной рекламы. В будущем году в ЕС планируют принять правила, которые должны смягчить проблемы, создаваемые развитием технологий ИИ.
Хотя ИИ широко используется правоохранительными органами, правозащитные группы заявляют, что авторитарные режимы злоупотребляют им для массового и дискриминационного наблюдения. Критики обеспокоены нарушением основных прав людей и правил конфиденциальности данных.
В опубликованном сегодня отчете агентство ЕС по основным правам человека (FRA), базирующееся в Вене, призвало политиков уделить больше внимания тому, как существующие нормы применяются к ИИ, и обеспечить, чтобы будущие законы об ИИ защищали основные права граждан.
Отчет FRA появился в связи с тем, что Европейская комиссия в будущем году планирует рассмотреть законопроект, охватывающий так называемые сектора с высоким уровнем риска, такие как здравоохранение, энергетика, транспорт и некоторые части государственного сектора.
По мнению FRA, новые нормы должны обеспечить соблюдение всех основных прав, в частности, включать гарантию того, что люди могут оспаривать решения, принимаемые ИИ, и что компании должны быть способны объяснять, как их системы ИИ принимают решения.
В нем также говорится, что необходимо больше проводить исследований потенциально дискриминационных эффектов ИИ, чтобы Европа могла принять меры против него, и блок должен дополнительно прояснить, как правила защиты данных применяются к этой технологии.
Отчет FRA основан на более чем 100 интервью с государственными и частными организациями, уже использующими ИИ, с анализом, основанным на использовании ИИ в Эстонии, Финляндии, Франции, Нидерландах и Испании.
Источник: Reuters