По словам специалистов, данный чат-бот не только помогает быстро и эффективно настраивать сложное медоборудование, но и облегчает врачам процессы решения многих диагностических задач.
Однако разделяют позитивный настрой OpenAI далеко не все. Так, эксперты по безопасности из Microsoft заметили, что нейросеть хоть и редко, но все же допускает, ошибки, что в случае с лечением пациентов совершенно не допустимо. Более того, даже при подборе товаров в каталоге медоборудования AI не способен действовать экспертно, так как не умеет анализировать визуал и делает выбор исходя из построения «личных» прогнозов.
Согласны с мнением Microsoft и некоторые популярные интернет-магазины медоборудования, поставляющие специализированную технику и приборы во многие больницы и поликлиники. По мнению их сотрудников популярный сегодня нейро-бот ChatGPT не годится для использования в медицине хотя бы по трем веским причинам:
▪ не умеет находить решения в необычных нестандартных ситуациях;
▪ не использует знания о медицине, полученные эмпирическим путем;
▪ отвечает на вопросы исходя из того, в каком стиле эти вопросы были заданы.
Если с простыми процессами продажи медоборудования в рассрочку AI еще справляется, то к работе с проблемными ситуациями, требующими строго соблюдения конфиденциальности, он совершенно не приспособлен и может легко нарушить требования приватности пациентов. Так, в шведской компании Swiss Re вообще считают, что уже к 2034 году медицина и фармакология выйдут в лидеры по выплате страховок пациентам из-за активного применения нейросетей.