Фокус на ответственное развитие

Исследователи и разработчики должны разрабатывать и тестировать модели ИИ этично и ответственно. Например, эти модели должны выполнять клинические задачи только в том случае, если они могут справиться с ними хотя бы так же хорошо, как люди. Чтобы достичь этого порога, модели ИИ должны быть точно настроены с учетом особенностей психического здоровья. Также важно тестировать модели, чтобы убедиться, что они надежны (работают последовательно) и валидны (работают в соответствии с научно обоснованной практикой). Например, если ИИ должен отвечать на вопросы людей о психическом здоровье или помогать терапевтам проводить лечение, модель должна быть безопасной, надежной и точной.

Содействие справедливости в области психического здоровья

К сожалению, существует неравенство в доступе к различным видам психиатрической помощи. Стигма также может стать препятствием для получения поддержки.

Крайне важно обучить модели отражать разнообразие людей, которые будут взаимодействовать с рассматриваемыми моделями ИИ, иначе вы рискуете создать модели, которые по-разному работают с разными группами людей. Также важно использовать системы для оценки эффективности ИИ по вопросам, связанным с справедливостьюА когда исследователи и разработчики выявляют проблемы, они должны четко сообщать о них и при необходимости переделывать модели, пока они не смогут обеспечить справедливую производительность.

Защитите конфиденциальность и безопасность

Конфиденциальность и безопасность имеют первостепенное значение для искусственного интеллекта в области психического здоровья. Любой, кто взаимодействует с ИИ по причинам психического здоровья, должен сначала предоставить информированное согласие, включая понимание разумных ожиданий конфиденциальности, а также границ этих ожиданий. Учитывая конфиденциальность информации о личном и психическом здоровье, разработчики моделей искусственного интеллекта в области психического здоровья должны разрабатывать эти модели в соответствии с законами о защите данных в своем регионе (например, (например, в США — Закон о переносимости и подотчетности медицинского страхования). [HIPAA]).

ЧИТАТЬ  Google Tensor G3: новый чип, который дает вашему Pixel обновление искусственного интеллекта

Безопасность в области психического здоровья также предполагает направление людей к гуманным поставщикам услуг и более высокий уровень медицинской помощи при ухудшении симптомов или появлении риска серьезных проблем с психическим здоровьем, таких как членовредительство. В конечном счете, надлежащее доверие достигается только тогда, когда модели ИИ сохраняют конфиденциальность информации о психическом здоровье и защищают людей.

Держите людей в курсе

Люди должны обеспечивать надзор и обратную связь на каждом этапе разработки и внедрения ИИ для поддержки психического здоровья.

Активное и постоянное участие человека может помочь сделать модели ИИ для психического здоровья более точными и выявить потенциально проблемные реакции. Например, шаблон может предложить практикующему психиатру формулировку для использования в его клинических записях, но практикующий врач все равно должен решить, включать ли эту формулировку или нет.

Когда дело доходит до ответственного использования и справедливости, исследователи и разработчики должны активно запрашивать мнение людей, отражающих разнообразие групп населения, которым они хотят помочь. Сюда входят люди, имеющие жизненный опыт проблем психического здоровья, и врачи. Благодаря такому типу сотрудничества люди могут совместно определить роль ИИ в психиатрической помощи, помочь выявить и исправить предвзятость, а также гарантировать, что контент, создаваемый ИИ, является инклюзивным, культурно приемлемым и точным.

Мы знаем, что технологии не могут сделать все. Однако я считаю, что, принимая во внимание эти меры предосторожности, ИИ может сыграть роль в преодолении постоянно расширяющегося разрыва между потребностью в услугах по охране психического здоровья и доступностью медицинской информации и психическим качеством поставщиков услуг.

Source