Искусственный интеллект начнет говорить с пациентами вместо врачей
Новый проект Microsoft анонсирован на прошлой неделе: совместно с компанией Epic Systems IT-гигант намерен внедрить языковую модель GPT-4 в здравоохранение для анализа медицинских карт и составления ответов пациентам.
Проект призван помочь врачам отвечать на вопросы пациентов, отправленные через интернет. Исследование, опубликованное в журнале Американской ассоциации медицинской информации (JAMIA), показало, что количество таких сообщений врачам увеличилось на 57% во время пандемии коронавируса.
Другое исследование, проведенное в Медицинском симуляционном центре (MESER) при больнице «Шиба», показало, что использование электронных медицинских карт повышает качество медицинских решений и улучшает уровень обслуживания даже в неотложной медицине.
Проект появился после многих лет неудач. Так, компания IBM занималась интеграцией суперкомпьютера Weston в исследования рака. Проект, несмотря на вложенные в него миллионы долларов, не дал полезных результатов и был закрыт.
При этом разработчики осознают, что чат-бот не может работать полностью независимо. Руководители проекта Microsoft говорят, что на пилотном этапе ответы ИИ на вопросы пациентов будут проверять люди.
- Читайте также:
- Миру грозит новая эпидемия: в Судане захвачена лаборатория с опасным биологическим материалом
- Ученые придумали, как сделать мужские контрацептивы
- «42% солдат ЦАХАЛа встречаются с психиатром. Невероятная цифра, но сегодня это стандарт»
Команда также будет отслеживать влияние этого инструмента на удовлетворенность пациентов и оценивать, сколько времени он действительно экономит врачам. В дополнение к этому будет изучена возможность предвзятости или ухудшения неравенства в отношении здоровья. «При создании технологий, способных изменить мир, Microsoft считает, что организации должны обеспечить ответственное использование», – говорится в заявлении компании.
Ожидания тех, кто занимается ИИ, высоки: инструмент должен сделать ответы более «читабельными» для пациентов, поскольку одной из способностей GPT, по-видимому, является объяснение тем разного уровня сложности простым и доступным языком.
Есть и одно важное «но». Доктор Маргарет Митчелл, главный специалист по этике в одной из крупных IT-компаний, предупреждает, что GPT-4 способен генерировать ложную информацию, которая может быть смертельно опасна в клинических условиях.
Однако, как утверждают компании, ведущие исследования, все ответы ИИ можно будет редактировать, чтобы избежать неприятных ситуаций.
TheMarker, «Детали», С.А. Фото: Depositphotos.com √
Будьте всегда в курсе главных событий:
Подписывайтесь на ТГ-канал "Детали: Новости Израиля"