Сегодня, когда искусственный интеллект начинает всё шире внедряться в жизни людей, в практику различных отраслей, промышленности, банковской и социальной сферы, как никогда актуален вопрос доверия к системам ИИ. В тех случаях, когда человек получает рекомендации, сформированные системой искусственного интеллекта, встаёт вопрос: если он должен их использовать, соглашаться или не соглашаться с ними, то на основании чего? Доверие рождается на основе понимания. Доверие к системам ИИ — вещь крайне многогранная, и один из краеугольных камней — это объяснимость. Если система выдаст гипотезу или решение, но не даст никакого объяснения, это поставит большинство людей в затруднение. Особенно это важно в отношении критических инфраструктур. Понятие «критической инфраструктуры» намного шире оборонной отрасли или атомной энергетики, оно охватывает ту же социальную сферу и, в частности, медицину. И если выносится решение по больному, то отвечает за это решение, естественно, врач. И он должен понимать, почему это решение было ему предложено, что не всегда возможно без внятного объяснения. Мы рассмотрим ряд аспектов, связанных с этими проблемами.
Запись выступления на официальном канале (с отметки 25:40):
Кобринский Б. А. Интерпретация, объяснимость и доверие к системам искусственного интеллекта // Всемирный конгресс «Теория систем, алгебраическая биология, искусственный интеллект: математические основы и приложения» (Москва, 26–30 июня 2023 г.).