Группа исследователей из Центра искусственного интеллекта НИУ ВШЭ представила новый инструмент для оценки уровня этичности систем искусственного интеллекта (ИИ) в медицине. Индекс, разработанный командой проекта «Этическая экспертиза в сфере ИИ», направлен на минимизацию потенциальных рисков и обеспечение безопасного внедрения ИИ-технологий в медицинскую практику.
Стремительный рост применения ИИ в различных сферах, включая медицину, создает новые этические проблемы, которые не учитываются действующими стандартами и регуляциями. В связи с этим возникла необходимость разработки специализированного инструмента для оценивания этих систем с точки зрения медицинской этики.
Исследовательская работа над индексом состояла из двух этапов: теоретического и практического. На начальном этапе были выявлены ключевые принципы профессиональной медицинской этики, такие как автономия, благодеяние, справедливость, ненанесение вреда и забота. В ходе последующего полевого исследования среди врачей и разработчиков ИИ эти принципы были дополнены новыми аспектами.
Результатом работы стал чат-бот «Индекс этичности систем искусственного интеллекта в медицине», который работает круглосуточно и позволяет разработчикам проводить самооценку и получать оперативную обратную связь. Методика оценки включает тест с закрытыми вопросами, который поможет разработчикам и пользователям понять возможные этические риски при внедрении ИИ в медицину.
Новинка уже была положительно оценена рядом российских IT-компаний и научными организациями, включая Комиссию по реализации Кодекса этики в сфере искусственного интеллекта. Профессор Анастасия Углева, руководитель проекта, отметила важность индекса для обеспечения этичного использования ИИ в медицине, выражая надежду на его пользу для медицинского сообщества.
Ожидается, что новый индекс будет востребован этическими комиссиями и экспертными сообществами, что способствует более безопасному и этичному использованию ИИ в медицинской практике.
]]>
Свежие комментарии