Искусственный интеллект может помочь врачам в диагностике пациентов и подборе индивидуального лечения. Однако международная группа ученых под руководством Массачусетского технологического института предупреждает, что существующие системы искусственного интеллекта могут привести к тому, что врачи будут принимать неверные решения из-за чрезмерной самоуверенности систем ИИ.
По мнению исследователей, один из способов избежать подобных ошибок — запрограммировать системы искусственного интеллекта на более «скромное» поведение. Такие системы будут сообщать, когда они не уверены в своих диагнозах или рекомендациях, и побуждать пользователей собирать дополнительную информацию, если диагноз вызывает сомнения.
Ученые разработали концепцию, которая, по их словам, может помочь разработчикам ИИ создавать системы, проявляющие любознательность и скромность. По мнению исследователей, этот новый подход позволит врачам и системам искусственного интеллекта работать в тандеме и предотвратит чрезмерное влияние ИИ на решения врачей.
Чтобы создать такую систему, консорциум разработал структуру, включающую в себя несколько вычислительных модулей, которые можно интегрировать в существующие системы искусственного интеллекта. Первый из этих модулей позволяет модели искусственного интеллекта оценивать собственную достоверность при составлении диагностических прогнозов. Разработанный членами консорциума модуль Epistemic Virtue Score выступает в качестве механизма самосознания, гарантирующего, что уверенность системы будет соответствующим образом скорректирована с учетом присущей каждому клиническому сценарию неопределенности и сложности.
Обладая таким самосознанием, модель может адаптировать свою реакцию к ситуации. Если система обнаружит, что ее уверенность в своих выводах превышает уровень, подтвержденный имеющимися данными, она может приостановить работу и указать на несоответствие, запросив дополнительные анализы или историю болезни, которые помогут устранить неопределенность, или порекомендовав консультацию специалиста. Цель состоит в том, чтобы создать искусственный интеллект, который не только дает ответы, но и сигнализирует, когда к этим ответам следует относиться с осторожностью.
«Это как если бы у вас был второй пилот, который подсказал бы вам, что нужно взглянуть на ситуацию со стороны, чтобы лучше понять этого сложного пациента», — считают исследователи
«Мы заставляем их сомневаться в наборе данных. Уверены ли они в своих обучающих и проверочных данных? Считают ли они, что какие-то пациенты были исключены из выборки, намеренно или нет, и как это повлияет на саму модель? — говорят ученые. — Конечно, мы не можем остановить или хотя бы замедлить развитие искусственного интеллекта не только в здравоохранении, но и во всех других отраслях. Но мы должны подходить к этому более осознанно и вдумчиво».
.