Нейросети на защите нейронов. Как ИИ помогает сохранять ментальное здоровье
Мир захлестнуло массовое увлечение нейросетями: с их помощью рисуют картины, сочиняют тексты, перепевают новыми голосами старые песни (и наоборот) и даже создают видеоролики на основе текстов. А как ИИ может использоваться в психиатрии? Разбирается Илья Чикунов.
Объяснимый ИИ в диагностике ментального здоровья
Психические заболевания являются одной из самых распространенных проблем.
По данным ВОЗ, ~12,5% людей во всём мире живут с психическим расстройством. Эти значения могут существенно отличаться от реальных показателей, поскольку в странах с низким доходом и сильной стигматизацией психически больных частота обращений к специалистам, вероятно, ниже и не отвечает текущей ситуации. Частота встречаемости любого психического расстройства в течение жизни составляет 28,6% для мужчин и 29,8% для женщин. Риск развития любого психического расстройства к 75 годам составляет 46,4% и 53,1% соответственно.
Психические заболевания влияют на мышление, эмоции и поведение человека, ухудшая качество жизни, общее психическое и физическое здоровье. Например, депрессия часто переплетается с суицидальным поведением или злоупотреблением психоактивными веществами. В диагностике и лечении психических расстройств есть ряд характерных особенностей.
Расстройства часто возникают в раннем возрасте и без лечения становятся хроническими, поэтому очень важна своевременная диагностика. Построение диагностических моделей должно включать прямые биологические и физиологические наблюдения, психологические и социальные факторы. В отличие от соматических заболеваний, диагностика которых основывается на лабораторных показателях, оценка психических расстройств опирается в первую очередь на результаты клинической беседы, затем на отчеты пациентов, полученные при анкетировании, интервью и тестировании. Из-за этого часто игнорируются отдельные случаи, зависящие от сложных проявлений расстройства или наложения разных симптомов.
Недавний всплеск развития нейросетей позволил таким технологиям, как искусственный интеллект (ИИ) и машинное обучение (МО), создать новую базу для диагностики. В частности, МО используется для анализа больших массивов информации для выявления закономерностей, связывающих психические расстройства с клиническими данными, биометрическими показателями, поведением и социальными взаимодействиями. В отличие от традиционных методов МО позволяет комбинировать мультимодальные показатели, что соответствует многогранному характеру психических расстройств.
Сгенерированные паттерны могут быть использованы для раннего выявления и диагностики расстройств. Одним из наиболее распространенных применений является прогнозирование вероятности наличия у пациента того или иного расстройства на основе ранее поставленных диагнозов. Например, предсказание синдрома дефицита внимания и гиперактивности (СДВГ) на основе электроэнцефалограмм или оценки результатов опросов. Более того, прогностические модели МО также используются для дифференциации состояний с похожими симптомами: СДВГ и аутизм или болезнь Альцгеймера и обычное старческое ухудшение работы мозга.
Термин «искусственный интеллект» предложил на Дартмутской конференции (США) в 1956 году профессор Джон Маккарти. Машинное обучение — это особый подход к реализации ИИ, при котором компьютер учится выполнять задачу с помощью алгоритма, а не конкретных критериев принятия решения, вводимых непосредственно человеком. Здесь критически важным является определение соответствующих признаков. Глубокое обучение (одно из направлений машинного обучения) идет дальше, используя в качестве входных данных заданные. Такое сквозное машинное обучение позволяет уменьшить ошибки, которые могут возникать из-за вмешательства человека, однако качество и количество данных, предоставляемых для обучения, становятся очень важными. Поэтому получение высококачественных данных для обучения ИИ становится критичнее, чем используемые алгоритмы.
Приложения для оценки психического здоровья варьируются от простых до сложных моделей на основе нейронных сетей. Сложные модели ожидаемо превосходят более простые, однако за высокую производительность приходится платить: часто механизм их работы представляет собой «черный ящик». «Черный ящик» использует исходные данные, например изображения или текст, для получения вероятности, скрывая при этом внутренний механизм обработки. Получаемые вероятности имеют большую ценность, но не раскрывают причинно-следственную связь между индивидуальными характеристиками пациента и рассматриваемым заболеванием. Это является существенным недостатком и порождает недоверие, не улучшая понимание того, как проявляются психические расстройства. Устранить эти недостатки должно применение объяснимого искусственного интеллекта.
Следует уточнить понятия объяснимости и интерпретируемости, которые часто используются в литературе как взаимозаменяемые. ИИ и МО также используются как взаимозаменяемые понятия без учета технологий ИИ, которые не основаны на обучении на данных, то есть алгоритмов, основанных на символических данных или базе знаний. Интерпретируемость — более узкий термин, чаще всего относящийся к интерпретации выходных данных МО-модели или к степени, в которой наблюдатель способен понять причину принятия конкретного решения моделью. С другой стороны, объяснимость — более широкое понятие, включающее объяснения, которые могут не зависеть от интерпретируемости МО-модели, а опираются на знания о моделировании и путях рассуждений, а также включают психологические, когнитивные или философские аспекты.
Исследователи и практики подчеркивают важность объяснимости при применении ИИ в здравоохранении и выделяют несколько ключевых преимуществ: безопасность и конфиденциальность медицинских данных, доверие общества к использованию ИИ и квалификация медиков. Некоторые акцентируют внимание на юридических аспектах, в частности на ответственности при использовании X-AI и предотвращении эксплуатации непонятных технологий, особенно когда есть риск для жизни, а также на устранении уязвимостей. Рассмотрим области, где ИИ уже показал свою диагностическую перспективность.
Кибербуллинг и суицидальные мысли
Социальные сети зачастую используются в развлекательных целях, но люди активно пользуются ими не только для общения. Многие демонстрируют свои таланты, достижения или хобби, другие смотрят выложенные записи и сразу переходят к критике. Оскорбления в комментариях и сообщениях иногда переходят в преследование. Преследование с помощью электронных средств определяется как кибербуллинг. Кибербуллинг — быстрорастущая проблема. Им занимаются люди, которые пассивны в обычной жизни или имеют психические проблемы, насмехаться над кем-то или дразнить и троллить других пользователей доставляет им удовольствие. Кибербуллинг также является проявлением ненависти. Люди, столкнувшиеся с кибербуллингом, могут впадать в депрессию, чувствовать себя никчемными, бесполезными, терять смысл жизни.
Кибербуллинг не только служит пусковым механизмом развития депрессии, но и усугубляет чувство одиночества. В результате люди, находящиеся в депрессии, начинают рассматривать самоубийство как единственный выход из пучины страданий. По данным Всемирной организации здравоохранения на 2019 год, ежегодно в мире совершают самоубийство 703 тыс. человек — это примерно каждая сотая смерть. В том же году в РФ зарегистрировано 25 смертей на 100 тыс. населения. В целом суицидов можно избежать, например, в случае пациентов с депрессивным состоянием. Для снижения уровня самоубийств прилагается множество усилий: психологические и клинические исследования, взаимодействие пациента и врача, проведение опросов. Однако выявлению суицидальных мыслей мешают препятствия клинического характера, ограниченная универсальность диагностических критериев, риск предвзятости и дороговизна.
Профилактика суицида возможна, если заранее знать о таком намерении. Иногда склонность можно выявить, наблюдая за поведением человека, например манерой письма, характером написанного и т. д. Даже часто употребляемые слова указывают на душевное состояние. Так, анализируя тексты, можно обнаружить суицидальные мысли. Исследователи изучают возможность создания автоматизированных моделей для анализа данных соцсетей с целью выявления риска самоубийства. Однако они также признают, что необходимо учитывать соображения конфиденциальности и возможности неправильной интерпретации высказываний. В настоящее время эта технология используется только для вмешательства в жизнь тех людей, которые согласились на участие, однако она позволяет превентивно проводить масштабный скрининг суицидального риска до взаимодействия субъектов с системой здравоохранения.
В связи с этим возникает сложный вопрос о компромиссе между приватностью и профилактикой: имеется технология, потенциально способная спасти множество жизней, которая в настоящее время охватывает лишь малую часть людей, подверженных риску, из-за уважения к их приватности. Мониторинг текстов частных лиц в режиме онлайн для прогнозирования суицидальных мыслей вызывает опасения в отношении свободы слова. Использование данных соцсетей, применение автоматизированных алгоритмов, приложений для анализа текстов и мониторинга в режиме реального времени может нарушать неприкосновенность частной жизни и свободу выражения мнений. Поэтому критически важно соизмерять выгоды от такого мониторинга с потенциальными рисками и обеспечивать защиту и ответственное использование любых собранных данных. Является ли нынешний компромисс между приватностью и профилактикой правильным? И допустим ли «тотальный контроль» даже с самыми благими целями? По этому поводу ведутся дискуссии, но до получения однозначного ответа, кажется, еще очень далеко.
В последнее десятилетие автоматизированное обнаружение в режиме реального времени кибербуллинга и суицидальных мыслей вызывает всё больший интерес, но остается сложной задачей. Первоначальные попытки обнаружения опирались исключительно на трудоемкую методику извлечения признаков, которая часто давала неточное представление о контексте. Позже было предложено несколько методов, основанных на списках оскорбительных, нецензурных и несущих признаки ненависти слов, но они оказались ограниченными по объему. В современных исследованиях основной упор делается на использование моделей глубокого машинного обучения, например на основе гибридной модели Bi-GRU. Метод включает в себя анализ текстов, их семантики и синтаксиса.
Сначала исследователи с помощью Bi-GRU и алгоритмов-классификаторов обнаружили случаи кибербуллинга на платформах Twitter и Reddit. Перед обнаружением была проведена предварительная обработка набора данных, который содержал более 25 тыс. текстов, поделенных на три класса: оскорбительные, неоскорбительные и некатегорированные. Затем с помощью Bi-GRU с встраиваемыми слоями GloVe («Глобальные векторы») фиксировалось наличие мыслей о самоубийстве. Таким образом, полученные результаты обеспечили обнаружение кибербуллинга с помощью модели машинного обучения Bi-GRU и выявление суицидальных идей с помощью Bi-GRU с встраиваемыми слоями GloVe. На начальном этапе точность составляла 85,71%. После изменения параметров и оптимизации алгоритмов точность предсказания достигла 92,70%. Когда набор данных представлял собой компиляцию сообщений из подреддитов SuicideWatch и Depression платформы Reddit, предложенная авторами гибридная модель дала 97% точности, что можно считать значительным успехом.
Люди, подверженные риску самоубийства, как правило, находятся в изоляции и не могут поделиться своими мыслями. Поэтому мониторинг суицидальных мыслей становится трудной задачей. Информация о психологическом состоянии пациента может быть получена с помощью смартфона. Созданное бразильскими учеными приложение Boamente (исп. «без злого умысла», «по доброй воле») основано на цифровом фенотипировании и дистанционно обнаруживает паттерны суицидальных мыслей, пассивно собирая тексты пациентов. Boamente — это мобильное приложение с виртуальной клавиатурой, которое отправляет тексты пользователей для обработки на веб-платформу. Платформа классифицирует тексты с помощью модели глубокого обучения, а результаты предоставляются специалистам.
Классификация текстов для анализа настроений реализована с помощью различных алгоритмов машинного/глубокого обучения. Модель BERTimbau Large показала лучшие результаты, достигнув точности 95,5%. То есть предложенный инструмент смог успешно выявлять суицидальные мысли по текстам пользователей.
Однако четкого объяснения того, как тексты влияют на результаты работы моделей машинного/глубокого обучения, пока не существует. Исследователи попытались объяснить, как слова и предложения влияют на результаты работы разных моделей машинного обучения. Оказалось, что на алгоритмы-классификаторы Extra Trees и Random Forest в равной степени влияют признаки, состоящие из одного или двух терминов. На C-Support Vector Classification (SVC) большее влияние оказали признаки, состоящие из двух терминов, чем из одного. В целом признаки «суицид», «желание покончить с собой» и «печаль» были наиболее значимыми для выявления суицидальных мыслей.
Американские ученые применили ансамблевый алгоритм машинного обучения к набору данных о подростках в Instagram с предыдущей историей попыток суицида. Для интерпретации результатов авторы использовали модель SHapley Additive exPlanations (SHAP). К пяти наиболее влиятельным прогностическим признакам относились количество аккаунтов, за которыми следил пользователь, вовлеченность и негативные эмоции во время интервью. Оказалось, что данные, связанные с этими признаками, могут быть особенно полезны для предсказания суицида.
Прогнозирование депрессии
В прогнозировании депрессии крайне важно обеспечить ясность и прозрачность обоснования прогнозов ИИ. Традиционная оценка психического здоровья в значительной степени опирается на субъективные рассказы и опросы пациентов, что приводит к неточностям в медицинских заключениях.
Частота ошибочных диагнозов психических заболеваний (например, биполярного расстройства) может достигать ~70% — даже эксперты с трудом замечают симптомы, прямо не сообщаемые пациентами.
Это мешает определить, преувеличивает ли человек симптомы или, наоборот, недоговаривает, чтобы избежать социальной стигматизации.
Кроме того, из множества маркеров риска развития депрессии ни один не позволяет точно диагностировать или классифицировать болезнь. Ведь это заболевание не вызывается каким-то одним обстоятельством, а развивается под действием наследственности и различных внешних факторов. Поэтому необходимо учитывать не только результаты очного консультирования, но и влияние среды обитания, биологические и социальные показатели. Искусственный интеллект, обладающий точностью и интерпретируемостью, должен повысить точность постановки диагноза, увеличить доступность услуг и решить психологические проблемы групп высокого риска развития депрессии.
В обзоре 2023 года авторы рассмотрели современное использование технологии X-AI в оценке психического здоровья при депрессии, проанализировав шесть исследований, использовавших различные алгоритмы: SHAP и Local Interpretable Model-Agnostic Explanation (LIME). Исследования машинного обучения в диагностике депрессивных расстройств ведутся уже более десяти лет. По имеющимся данным, точность моделей довольно высока — 60–80%, а чувствительность и специфичность находятся в диапазоне 70–80%. Однако при применении теорий машинного обучения в реальной клинической практике возникает ряд проблем, препятствующих их использованию, таких как неоднородность различных данных, обусловленная особенностями их сбора и методами последующей обработки. Это затрудняет обобщение полученных результатов, их перенос на другие данные и сравнение.
В целом сравнение пяти исследований, включавших выборки от 36 тыс. до 266,5 тыс. испытуемых, показало, что такие X-AI, как SHAP и LIME, эффективны для прогнозирования депрессии. Здесь следует отметить, что под эффективностью понимается сопоставимость с прогнозами профессиональных психиатров. Точность же диагностики депрессии низкая, ведь ее трудно отличить от других психических состояний. Прогнозирование в психиатрии, как известно, затруднено из-за неоднородности расстройств и широкого спектра коморбидных состояний при различных заболеваниях.
Однако прогностическая эффективность методов машинного обучения варьируется в разных исследованиях, поэтому постоянно требуются дополнительные исследования для проверки каждого алгоритма, поскольку полученные результаты не могут быть обобщены на все типы данных.
Выявление шизофрении
Шизофрения — серьезное психическое расстройство, при котором нарушаются высшие мозговые функции: мышление, память, восприятие, речь и т. д. Это оказывает глубокое влияние на взаимоотношения, жизнедеятельность и образ жизни человека. Шизофрения может проявляться разными симптомами, обычно в возрасте 16–30 лет. Раннее распознавание этих симптомов и начало лечения важны для минимизации долгосрочных пагубных последствий.
Диагноз «шизофрения» требует детального обследования для выявления специфических симптомов: нарушение речи и функций, галлюцинации и пр. На точность оценки влияет субъективный характер симптомов, а также возможность одновременного наличия других психических расстройств, что повышает вероятность диагностической ошибки. Кроме того, у людей с положительным семейным анамнезом встречаются преморбидная (предшествующее и способствующее развитию болезни состояние) или продромальная (промежуток между скрытым периодом и болезнью) фазы, предшествующие развитию психоза. В таких случаях подтверждением клинических наблюдений могут служить данные об изменении активности и/или анатомии мозга, полученные с помощью электроэнцефалографии (ЭЭГ) и магнитно-резонансной томографии (МРТ).
ЭЭГ измеряет электрические потенциалы, возникающие в различных областях мозга, с помощью пространственной решетки из нескольких электродов, расположенных на коже головы. Сигналы ЭЭГ поступают на аналого-цифровой преобразователь и усилитель, затем подвергаются предварительной обработке для выравнивания данных и удаления артефактов. Эксперты классифицируют показания на основе частоты, амплитуды, формы и расположения. Характерные паттерны волновых форм ЭЭГ связаны с такими состояниями, как эпилепсия, болезнь Альцгеймера, расстройство внимания, шизофрения. Стандартизированный набор сигналов ЭЭГ представляет собой обширную структуру данных, которая прекрасно подходит для автоматизированной диагностики с помощью искусственного интеллекта.
МРТ позволяет получить детальную информацию о структуре и функциях мозга. При шизофрении наблюдается уменьшение объема серого вещества, особенно в лобной и височной областях мозга, а также потеря белого вещества, которое включает нервные волокна и клетки, играющие важнейшую роль в приеме и передаче сигналов в центральной нервной системе. Количественная визуализация гемодинамических параметров, таких как скорость мозгового кровотока, среднее время прохождения и объем мозговой крови, позволяет неинвазивно определять региональное кровоснабжение, которое нарушается при заболеваниях мозга.
МРТ и ЭЭГ позволяют получить ценные сведения о структурных и функциональных нарушениях, связанных с шизофренией. Международная научная группа оценила эффективность разных моделей из 34 исследований для диагностики шизофрении на основании данных МРТ и реже ЭЭГ. Наиболее популярными алгоритмами были сверточные нейронные сети (CNN), глубокие нейронные сети (DNN) и длинные цепи элементов краткосрочной памяти (LSTM), а в некоторых моделях использовались комбинированные алгоритмы.
CNN оказались наиболее предпочтительным методом: CNN-модель используют 39,3% исследователей. Эта модель не только экономна и быстра в вычислениях, но и требует меньшего количества обучаемых параметров, а ее структура хорошо подходит для обработки двухмерных и трехмерных изображений. Несмотря на то что модель на основе LSTM обеспечивает самые высокие результаты (99% эффективности), модели на основе CNN являются одним из наиболее предпочтительных методов глубокого обучения. LSTM-модели достигли максимальной точности 99%, а среднее значение составило 93%. Модели на основе CNN достигли максимальной точности 98,75% при среднем значении 91,76%. Таким образом, модели на основе CNN и LSTM представляются наиболее перспективными для идентификации шизофрении. Обученные модели ResNet50, AlexNet и VGG16 также показали хорошие результаты, превышающие 90%.
Диагностика СДВГ
С 2019 года группа британских ученых в тесном сотрудничестве с South-West Yorkshire Partnership NHS Foundation Trust разрабатывает первое в мире решение для диагностики синдрома дефицита внимания и гиперактивности (СДВГ) у взрослых с использованием искусственного интеллекта. Исходными данными являются те же клинические данные, которые собираются в медицинских учреждениях, где лечат СДВГ у взрослых.
Предложенное авторами решение представляет собой гибрид двух компонентов, основанных на ИИ. Первый основан на модели МО, обученной на основе 500 клинических данных прошлых лет. Модель показывает два исхода — «да» (то есть диагноз СДВГ) и «нет». Другой компонент использует модель, основанную на данных, полученных при опросах клинических специалистов. Здесь возможны три результата: «да», «нет» или «требуется дополнительная оценка» (сложные случаи, требующие специальной оценки врачами-экспертами). При совпадении результатов обоих компонентов система дает положительную или отрицательную диагностическую рекомендацию; при расхождении мнений пациент направляется на дополнительное обследование. На основе этого подхода была достигнута точность 98%. Созданная модель поддерживает адаптацию при внедрении в новые медицинские услуги, и со временем, по мере накопления данных, ее точность растет. Предварительные результаты уже опубликованы и запатентованы авторами.
Расстройства аутистического спектра
Расстройства аутистического спектра (РАС) включают в себя, например, синдром Аспергера и ряд генетически обусловленных состояний. Эти расстройства обычно проявляются в раннем возрасте и охватывают широкий спектр нейродивергентных особенностей, в том числе в плане социального взаимодействия.
Индийские ученые сравнили несколько методов диагностики, использующих различные критерии: фотографии пациентов, данные нательных датчиков, совместного использования акселерометра, микрофона и веб-камеры и др. Например, провели обследование с помощью методов машинного обучения и реализовали модель в виде веб-приложения для выявления аутизма у детей 3–4 лет. Авторам удалось достичь предсказательной точности до 100%.
Исследователи из США, используя наборы данных для взрослых, детей и подростков из репозитория Uci Health Center for Autism & Neurodevelopmental Disorders, опробовали разные модели и обнаружили, что CNN-модель обладает более высокой точностью: для взрослых — 99,53%, для детей — 98,30%, для подростков — 96,88%. Эти же авторы использовали схему с двумя датчиками: носимый акселерометр для фиксации поведения и статичные микрофон и веб-камера. Для анализа сигнала акселерометра использовалась скрытая марковская модель (СMM). Точность классификации детей-аутистов составила 91,5%. Другие исследователи предложили различные варианты носимых датчиков, но общим недостатком является необходимость их крепления к телу испытуемого, что ведет к некоторому дискомфорту.
В Индии разработали систему искусственного интеллекта с подключенным датчиком на основе набора данных, взятого с сайта Kaggle и содержащего 35,9 тыс. полутоновых изображений людей с аутизмом. Сенсор используется для анализа выражений и эмоций лица пациента. Для этого на руки пациентов надевается смарт-браслет с экраном для наблюдения и камерой, которая подключается к мобильному устройству. При необычном поведении система посылает соответствующие сигналы тревоги тем, кто ухаживает за пациентом. Наибольшая точность, достигнутая Inception-ResNet-v2, составила 78,56%.
Другие авторы применили метод тепловизионного изображения области глаз, щек, носа и лба, а также сравнение 50 нейротипичных детей и 50 — с аутизмом с помощью настроенных моделей CNN и ResNet. Учитывались три вида эмоций: счастье, грусть и гнев. Точность, полученная с помощью настроенных моделей CNN и ResNet, составила 96% и 90% соответственно, а чувствительность достигала 100% и 87%. То есть имеющиеся сейчас модели на основе ИИ способны обеспечить высокую точность диагностики аутизма.
Таким образом, программы, работающие по принципу нейронных сетей, уже сейчас могут стать полезным вспомогательным инструментом диагностики психических расстройств и заболеваний. Еще одним важным преимуществом автоматизированной диагностики посредством объяснимого ИИ является та помощь, которую от интеллектуальных систем смогут получить врачи, чтобы лучше понять сложные взаимосвязи биологии, психологии и поведения при психических расстройствах. Например, при прогнозировании депрессии необходима ясность и прозрачность прогнозов ИИ.
В будущем ученые планируют разработать модели, которые не только станут выявлять имеющееся заболевание, но и пригодятся для мониторинга его развития и оптимизации терапии, например путем подбора или замены лекарственных препаратов. Продвижение исследований в любом из перечисленных направлений будет способствовать дальнейшей интеграции технологий ИИ в систему здравоохранения. Но при этом возникает целый ряд вопросов, касающихся того, насколько этично применение нейросетевых алгоритмов в сфере психиатрии?..
Этично ли использование нейросетей в медицине?
Этим вопросом задаются как медики, так и пациенты. Специалисты отмечают целый ряд этических вызовов: 1) отсутствие объяснимости; 2) сложности, связанные с компромиссом между приватностью/персонализацией и качеством получаемых диагнозов или рекомендаций; 3) контроль истории использования приложений.
Концепция объяснимости (что именно лежит в основе алгоритма, должно объясняться пользователю наряду с результатом) является важным фактором в рассуждениях о рекомендательных системах. Другими словами, необходимо объяснять пользователю, почему применяемая нейросеть выдает тот или иной результат. Ведь то, как ставится психиатрический диагноз, может оказать глубокое влияние на дальнейший путь пациента к выздоровлению. Кроме того, нейросети не учитывают эмоциональные нюансы. Резкие формулировки при диагностике или неожиданные рекомендации могут напугать или оттолкнуть пациента, ухудшить понимание человеком своей болезни и схемы лечения. Таким образом, в случае рекомендаций по психическому здоровью, составленных с помощью ИИ, возникают особые сложности, поскольку диагноз или рекомендация, предоставленная пользователю без удовлетворительного объяснения, способна повлиять на его психическое здоровье. Поэтому данный вопрос требует наиболее тщательного рассмотрения.
Противоречие между приватностью и персонализацией кроется в том, что чем больше одно, тем меньше другое. Чтобы получить наилучшие рекомендации или диагноз, пациенту необходимо найти приемлемый компромисс. Если, например, алгоритм практически ничего не знает о человеке, то персонализация невозможна. Для достижения высокой точности требуется больше приватной информации, что вызывает сложности, связанные с нечеткой нормативно-правовой базой. Право человека на неприкосновенность частной жизни и конфиденциальность медицинской информации завязано на отношениях с врачом или клиникой. Однако отношения между человеком и «машиной» до сих пор не определены, а законодательство, защищающее права пользователя, неоднозначно. Особенно это тревожит при использовании носимых устройств, подобных применяемым для диагностики аутизма (микрофон и камера, передающие данные на сервер). Такие устройства могут собирать и передавать третьей стороне информацию не только о пациенте, но и об окружающих людях. Так, несложно представить, что диагностический комплекс легко превращается в средство круглосуточной слежки. Привет, оруэлловский телекран?..
Исследования показали, что многие коммерческие приложения для поддержания психического здоровья не соответствуют клиническим рекомендациям и не соблюдают конфиденциальность пользователя. Учитывая деликатный характер данных о психическом состоянии, а также медицинскую информацию, которая требуется диагностическим алгоритмам, возникает обоснованное беспокойство о вероятном нарушении конфиденциальности. Другая опасность связана с пагубным влиянием на человека неадекватных рекомендаций нейросети, базирующихся на недостаточных данных. Учитывая потенциальные издержки неточности, можно предпочесть риск утечки персональных данных. Как найти баланс в таких жестких рамках — совершенно не ясно.
Контроль истории использования алгоритмов должен находиться в руках пользователей.
Сейчас этот момент абсолютно непрозрачен, как и контроль над персональной информацией из предыдущего пункта. С другой стороны, даже обычную медицинскую карту иногда приходилось с боем добывать в регистратуре поликлиники…
Обзор научных работ по применению ИИ в здравоохранении выявил ряд дополнительных этических проблем, включающих нарушения таких принципов, как уважение свободы человека, предотвращение вреда и справедливость. В большинстве исследований этические принципы учитываются ограниченно. Авторы пришли к выводу, что практические инструменты для проверки и соблюдения этических требований к применению в медицине технологий, основанных на ИИ, отсутствуют.
С этим соглашаются и другие исследователи: в настоящее время не существует четко разработанных нормативных документов, которые бы регулировали правовые и этические вопросы, возникающие в связи с использованием искусственного интеллекта в медицине.
Также неясно, кто несет ответственность за неверные решения, принятые ИИ, — разработчик программы, врач, регулирующие органы, допустившие применение алгоритма, или пациент, решившийся им воспользоваться.
В итоге мы получаем дилемму — выбор между новейшими технологиями, которые могут существенно облегчить жизнь и заботу о здоровье, и непредсказуемыми последствиями для основных свобод человека. Остается надеяться, что здесь удастся прийти к взвешенному, прозрачному и законодательно регулируемому компромиссу.