Искусственный интеллект (ИИ) динамично развивается и является будущим медицины. Тем не менее, на международном уровне по-прежнему отсутствуют правила, особенно юридическое определение, определяющие искусственный интеллект и, следовательно, ясность в вопросе ответственности за возможные медицинские ошибки, возникающие при использовании оборудования с искусственным интеллектом.
Потенциал ИИ в медицине
Инструменты диагностики, поддерживаемые искусственным интеллектом, повышают качество и эффективность здравоохранения. Они используются в первую очередь для опроса пациента, анализа результатов анализов, наблюдения за состоянием пролеченного человека и выполнения многих других действий врачом для постановки правильного диагноза. Их правильное функционирование зависит главным образом от большого количества разноплановой информации, в том числе конкретных данных о пациентах.
- Неконтролируемый доступ к такой информации может нанести ущерб личным интересам человека. Центры, предлагающие частные медицинские услуги, которые не хотят делиться своими информационными ресурсами для пациентов - Конрад Ягоча, юрист, Kancelaria Prawna Chałas i Wspólnicy, скептически относятся к накоплению данных.
Несколько систем искусственного интеллекта уже используются в медицине. Одна из них - DXplain - программа, которая после анализа набора симптомов, наблюдаемых у пациента, представляет список возможных диагнозов. Однако окончательный выбор остается за врачом. Также стоит обратить внимание на Germwatcher. Это лабораторная информационная система, которая выявляет, отслеживает и исследует возможность инфекций у госпитализированных людей.
Внедрение роботизированных хирургических систем определенно было прорывом. Используя систему DaVinci с роботизированными руками, точным движением и магнитным зрением, врачи могут выполнять операции, которые были бы невозможны с помощью стандартных процедур.
Необходимость регулирования
Европейский парламент вместе с Европейским экономическим и социальным комитетом указывает, что необходимо выработать точное определение искусственного интеллекта. Он должен отвечать требованиям высокой строгости и, таким образом, не вносить дополнительных двусмысленностей, сомнений или юридических лазеек, а также быть достаточно технологически «открытым», чтобы не препятствовать потенциальному развитию технологии искусственного интеллекта в будущем.
Определение легального ИИ позволит нам определить, кто несет ответственность за любые медицинские ошибки, возникающие при использовании машин с ИИ.
- В соответствии с положениями гражданского права, чтобы иметь возможность возложить ответственность на данное лицо, должны, в частности, существовать одно из помещений, адекватная причинная связь между его действием или бездействием и событием, в результате которого произошел ущерб. Кажется, очень сложно возложить гражданскую ответственность на организацию за деятельность, возникшую в результате использования искусственного интеллекта. Врач не может предсказать намерения автономного человека. Это проблема, на которую особенно обращают внимание противники использования ИИ в медицине - Конрад Ягоча, юрист, Kancelaria Prawna Chałas i Wspólnicy.
Также стоит отметить, что разработка диагнозов машинами с ресурсами искусственного интеллекта статистически эффективнее и быстрее, чем врачами. Однако эксперты подчеркивают, что ИИ в медицине должен находиться под постоянным наблюдением человека из-за важности последствий, которые могут иметь любые нарушения. Таков, например, дух Управления по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA), которое позволяет врачам проводить только исследования ИИ с низким уровнем риска.