Интеллект в: Искусственный интеллект в стартапах — Ученикам

Искусственный интеллект в юруслугах: «Вы теперь и есть за меня будете?»

Стремительное развитие новых технологий

Необходимо отметить, что искусственный интеллект (ИИ) успешно применяется в юриспруденции уже некоторое время: например, нейросети используются для предсказания исходов дел, анализа рисков в договорах и даже вынесения судебных решений. Например, в Китае судьи обязаны консультироваться с искусственным интеллектом: ИИ ежедневно анализирует более 100 000 дел, рекомендует суду нормы права для вынесения решения, а прокуратура этой восточной страны использует «умный суд» для выдвижения обвинения. 

Бурное развитие генеративного ИИ обладает бóльшим потенциалом, чем существовавшие ранее модели. Генеративный ИИ, будучи обученным на огромном объеме очень качественных данных, потенциально способен писать судебные решения, анализируя позиции сторон в иске и отзыве на него, процессуальные документы, вычищать из договоров риски, проводить due diligence контрагента или объекта сделки перед покупкой. В общем, он может выполнять функции юриста, только более эффективно, так как у ИИ неограниченный объем метаданных и предыдущего опыта. Развитие ИИ, в конце концов, сможет сформировать машиночитаемое право. 

Коллеги из University College London (UCL) совместно с университетами Sheffield и Pennsylvania приблизились к этому и научили ИИ отличать нарушение от отсутствия нарушения в делах, которые рассмотрел Европейский суд по правам человека. Искусственный интеллект корректно предсказал исход 584 дел. Показатель точности — 79%. Но подоплеку некоторых дел система понимала с трудом. Вряд ли в ближайшем будущем искусственному интеллекту позволят рассматривать дела самостоятельно. Но технологию можно использовать, чтобы быстро определять в делах паттерны, которые ведут к предсказуемым результатам (futurism.com).

С помощью ChatGPT и аналогов можно как писать иски, так и получать ответы на юридические вопросы. Пока наш опыт и опыт коллег показывает, что это далеко от идеала: юрист все равно делает работу лучше. ChatGPT способен набросать слов, но богатый по юридическому содержанию текст подготовить ему не удастся. Мы взяли наш уже поданный иск и попросили ChatGPT написать такой же: с аналогичным спором к тому же ответчику и такими же требованиями, включая сумму.

Мы получили вовсе не иск, а рассказ о страданиях нашего клиента. Более того, ChatGPT еще и придумывал статьи из закона (то есть ссылался на то, чего нет) и менял статьи с правовых на «своими словами». Причесать текст так, чтобы получить из него иск, оказалось невозможно. Чтобы ChatGPT работал на юриста хорошо, его нужно дополнительно обучать решать конкретные задачи на специализированных юридических данных в конкретной отрасли. Основная трудность в применении существующих генеративных моделей заключается именно в том, чтобы получить необходимый объем размеченных данных и дообучить модель для решения конкретных задач. При этом разработка собственной модели с нуля может оказаться долгосрочным и дорогостоящим процессом.

Но я уверен, технология будет развиваться, и в скором времени появится новая профессия у юриста — постановщик запроса для искусственного интеллекта.

Новый проект на российском рынке

Я развиваю Legal Tech-проект DestraLegal.ru. Мы посмотрели на рынок и увидели, что для юристов есть масса решений, а у потребителей нет доступа к современным продуктам для получения юридической помощи. Поэтому решили автоматизировать юридическую услугу для населения. В DestraLegal.ru мы как применяем ИИ в работе юриста, так и даем воспользоваться его результатами нашим пользователям. Часть рутинной работы юриста делает наш обученный алгоритм, например формирует шаблон и заполняет его. Автоматизированная система строит для пользователя алгоритмы действий, дает готовые документы и рассказывает о шансах на успех, оценивая предыдущий опыт судебных споров по таким же делам.

Сервис DestraLegal.ru еще создал платформу, где каждый пользователь может подать коллективный иск. Мы используем ИИ для автоматизированной обработки заявок на присоединение к текущим коллективным искам и формирования комплектов документов для суда. За прошлый год мы смогли обработать более 10 000 заявок на коллективные иски.

Юриспруденция — консервативная сфера. Технологии прорываются сюда чуть медленнее, чем на других рынках товаров и услуг. Но развитие не остановить, поэтому в наших руках двигать искусственный интеллект на пользу человечества. 

Главное, чтобы ИИ и есть за нас не начал!

  • Интеллектуальная собственность

Искусственный интеллект в образовании | UNESCO

Искусственный интеллект (ИИ) обладает потенциалом для решения некоторых из самых серьезных проблем, существующих сегодня в образовании, внедрения инноваций в практику преподавания и обучения и ускорения прогресса в достижении ЦУР 4. Однако стремительное развитие технологий неизбежно влечет за собой многочисленные риски и проблемы, которые до сих пор опережали политические дебаты и создание нормативной базы. ЮНЕСКО стремится оказать поддержку государствам-членам в использовании потенциала технологий ИИ для достижения Повестки дня в области образования на период до 2030 года, обеспечивая при этом, чтобы их применение в образовательных контекстах осуществлялось на основе основных принципов инклюзивности и справедливости.

Мандат ЮНЕСКО по своей сути требует подхода к ИИ, ориентированного на интересы человека. Он направлен на то, чтобы перевести разговор на роль ИИ в устранении существующего неравенства в отношении доступа к знаниям, исследованиям и разнообразию форм культурного самовыражения, а также на то, чтобы ИИ не увеличивал технологический разрыв внутри стран и между ними. Обещание «ИИ для всех» должно заключаться в том, что каждый сможет воспользоваться преимуществами происходящей технологической революции и получить доступ к ее плодам, особенно в плане инноваций и знаний.

Кроме того, в рамках Пекинского консенсуса ЮНЕСКО подготовила публикацию, направленную на повышение готовности лиц, ответственных за разработку политики в области образования, к использованию искусственного интеллекта.  Эта публикация, «Технологии искусственного интеллекта в образовании: перспективы и последствия» будет представлять интерес для практиков и специалистов в области разработки политики и образования. Она направлена на формирование общего понимания возможностей и проблем, которые открывает ИИ для образования, а также их последствий для основных компетенций, необходимых в эпоху ИИ.

В рамках своих проектов ЮНЕСКО подтверждает, что внедрение технологий ИИ в образование должно быть направлено на укрепление человеческого потенциала и защиту прав человека в целях эффективного взаимодействия человека и машины в жизни, обучении и работе, а также в интересах устойчивого развития. Вместе со своими партнерами и международными организациями, а также с ключевыми ценностями, которые являются основой мандата ЮНЕСКО, Организация надеется укрепить свою ведущую роль в области ИИ в сфере образования в качестве глобальной лаборатории идей, органа по установлению стандартов, консультанта по вопросам политики и специалиста по наращиванию потенциала.

Если вы заинтересованы в использовании новых технологий, таких как ИИ, для укрепления сектора образования, мы будем рады сотрудничать с вами путем предоставления финансовых взносов, взносов в натуральной форме или технических консультаций.

«Нам необходимо подтвердить это обязательство по мере продвижения к эре, в которой искусственный интеллект — слияние новых технологий — преобразует каждый аспект нашей жизни (…)», — заявила г-жа Стефания Джаннини, заместитель Генерального директора ЮНЕСКО по вопросам образования в ходе Международной конференции по искусственному интеллекту и образованию, состоявшейся в Пекине в мае 2019 года. «Мы должны направить эту революцию в нужное русло, улучшить условия жизни людей, уменьшить неравенство и способствовать справедливой и инклюзивной глобализации».

Риски и средства защиты от искусственного интеллекта в здравоохранении

Примечание редактора:

Этот отчет Инициативы Брукингского института по искусственному интеллекту и новым технологиям (AIET) является частью серии «Управление ИИ», в которой определяются ключевые вопросы управления и нормирования, связанные с ИИ, и предлагаются меры политики для решения сложные задачи, связанные с новыми технологиями.

Введение

Искусственный интеллект (ИИ) быстро проникает в здравоохранение и выполняет важные функции, от автоматизации рутинных и рутинных задач в медицинской практике до управления пациентами и медицинскими ресурсами. По мере того как разработчики создают системы ИИ для выполнения этих задач, возникает несколько рисков и проблем, в том числе риск травм пациентов из-за ошибок системы ИИ, риск для конфиденциальности пациентов при сборе данных и выводах ИИ и многое другое. Потенциальные решения сложны, но требуют инвестиций в инфраструктуру для получения высококачественных репрезентативных данных; совместный надзор со стороны Управления по санитарному надзору за качеством пищевых продуктов и медикаментов и других субъектов здравоохранения; и изменения в медицинском образовании, которые подготовят поставщиков услуг к смене ролей в развивающейся системе.

Потенциальные преимущества

Несмотря на то, что эта область еще достаточно молода, ИИ может сыграть по крайней мере четыре основные роли в системе здравоохранения: 1 Расширение границ возможностей человека. Самое яркое применение медицинского ИИ — это делать то, что пока не могут делать люди, пусть даже превосходные. Например, Google Health разработала программу, которая может прогнозировать начало острого повреждения почек за два дня до того, как произойдет повреждение; сравните это с современной медицинской практикой, когда травму часто не замечают до 9 лет.0021 после

бывает. 2 Такие алгоритмы могут улучшить уход за больными, выходя за рамки текущих возможностей человека.

«Самое яркое применение медицинского ИИ — это делать вещи, которые пока не могут делать люди — даже превосходные».

Демократизация медицинских знаний и передового опыта. AI также может делиться опытом и эффективностью специалистов, чтобы дополнить поставщиков, которым в противном случае не хватало бы этого опыта. Популярными целями являются офтальмология и радиология, особенно потому, что методы анализа изображений ИИ уже давно находятся в центре внимания. Некоторые программы используют изображения человеческого глаза для постановки диагнозов, для которых в противном случае потребовался бы осмотр офтальмолога. Используя эти программы, врач общей практики, техник или даже пациент могут прийти к такому заключению.

3 Такая демократизация имеет значение, потому что специалистов, особенно высококвалифицированных специалистов, относительно мало по сравнению с потребностью во многих областях.

Автоматизация рутинной работы в медицинской практике. AI может автоматизировать некоторые компьютерные задачи, которые сегодня занимают большую часть медицинской практики. Медицинские работники тратят огромное количество времени на работу с электронными медицинскими картами, чтение экранов и набор текста на клавиатуре даже в смотровой комнате. 4 Если системы ИИ смогут ставить в очередь наиболее важную информацию в историях болезни пациентов, а затем преобразовывать записи встреч и разговоров в структурированные данные, они могут сэкономить существенное время для поставщиков медицинских услуг и могут увеличить количество личных контактов между поставщиками медицинских услуг и пациентами и качество медицинской встречи для обоих.

Управление пациентами и медицинскими ресурсами. Наконец, и это наименее заметно для общественности, ИИ можно использовать для распределения ресурсов и формирования бизнеса. Например, системы искусственного интеллекта могут предсказать, какие отделения, вероятно, потребуют дополнительного персонала в краткосрочной перспективе, предположить, какой из двух пациентов может получить наибольшую пользу от ограниченных медицинских ресурсов, или, что более спорно, определить методы максимизации доходов.

Риски и проблемы

Хотя ИИ предлагает ряд возможных преимуществ, существует также несколько рисков:

Травмы и ошибки. Наиболее очевидный риск заключается в том, что системы ИИ иногда будут ошибаться, что может привести к травме пациента или другим проблемам со здоровьем. Если система ИИ рекомендует пациенту не тот препарат, не замечает опухоль при рентгенологическом сканировании или выделяет больничную койку одному пациенту, а не другому, потому что неправильно предсказала, какой пациент получит больше пользы, пациент может быть травмирован.

Конечно, многие травмы происходят из-за врачебной ошибки в системе здравоохранения сегодня, даже без участия ИИ. Ошибки ИИ потенциально различны по крайней мере по двум причинам. Во-первых, пациенты и поставщики услуг могут по-разному реагировать на травмы, вызванные программным обеспечением, чем на ошибки человека. Во-вторых, если системы ИИ получат широкое распространение, основная проблема в одной системе ИИ может привести к травмам тысяч пациентов, а не к ограниченному числу пациентов, пострадавших из-за ошибки какого-либо одного поставщика услуг.

Связанный контент

Доступность данных.

Учебным системам искусственного интеллекта требуются большие объемы данных из таких источников, как электронные медицинские карты, записи в аптеках, записи о страховых выплатах или информация, созданная потребителями, например фитнес-трекеры или история покупок. Но данные о здоровье часто проблематичны. Данные обычно фрагментированы по множеству различных систем. Даже помимо только что упомянутого разнообразия, пациенты обычно обращаются к разным поставщикам услуг и меняют страховые компании, что приводит к разделению данных в нескольких системах и в нескольких форматах. Эта фрагментация увеличивает риск ошибки, снижает полноту наборов данных и увеличивает затраты на сбор данных, что также ограничивает типы объектов, которые могут разрабатывать эффективный ИИ для здравоохранения.

Вопросы конфиденциальности. Другой набор рисков связан с конфиденциальностью.

5 Требование больших наборов данных побуждает разработчиков собирать такие данные от многих пациентов. Некоторые пациенты могут быть обеспокоены тем, что эта коллекция может нарушить их конфиденциальность, и были поданы судебные иски на основании обмена данными между крупными системами здравоохранения и разработчиками ИИ. 6 ИИ может влиять на конфиденциальность по-другому: ИИ может предсказывать личную информацию о пациентах, даже если алгоритм никогда не получал эту информацию. (Действительно, это часто является целью ИИ в здравоохранении.) Например, система ИИ может определить, что у человека болезнь Паркинсона, на основе дрожания компьютерной мыши, даже если человек никогда не раскрывал эту информацию. никому другому (или не знал). Пациенты могут счесть это нарушением их конфиденциальности, особенно если вывод системы ИИ будет доступен третьим лицам, таким как банки или компании по страхованию жизни.

Предвзятость и неравенство. Существуют риски, связанные с предвзятостью и неравенством в ИИ в здравоохранении. Системы искусственного интеллекта учатся на данных, на которых они обучаются, и могут учитывать предубеждения на основе этих данных. Например, если данные, доступные для ИИ, в основном собираются в академических медицинских центрах, полученные в результате системы ИИ будут знать меньше о пациентах из групп населения, которые обычно не посещают академические медицинские центры, и, следовательно, будут менее эффективно лечить их. Точно так же, если системы ИИ для распознавания речи используются для расшифровки заметок о встречах, такой ИИ может работать хуже, если провайдер относится к расе или полу, недостаточно представленным в обучающих данных.

7

«Даже если системы искусственного интеллекта извлекают уроки из точных репрезентативных данных, все равно могут возникнуть проблемы, если эта информация отражает основные предубеждения и неравенства в системе здравоохранения».

Даже если системы ИИ учатся на точных, репрезентативных данных, могут возникнуть проблемы, если эта информация отражает основные предубеждения и неравенства в системе здравоохранения. Например, афроамериканские пациенты в среднем меньше лечатся от боли, чем белые пациенты; 8 система ИИ, изучающая записи системы здравоохранения, может научиться предлагать более низкие дозы обезболивающих афроамериканским пациентам, даже если это решение отражает системную предвзятость, а не биологическую реальность.

Системы искусственного интеллекта с распределением ресурсов также могут усугубить неравенство, выделяя меньше ресурсов пациентам, которых системы здравоохранения считают менее желательными или менее прибыльными по целому ряду проблематичных причин.

Профессиональная перестройка. Долгосрочные риски связаны со сменой профессии врача. Некоторые медицинские специальности, такие как радиология, вероятно, существенно изменятся, поскольку большая часть их работы станет автоматизированной. Некоторые ученые обеспокоены тем, что широкое использование ИИ со временем приведет к снижению человеческих знаний и возможностей, так что поставщики услуг потеряют способность выявлять и исправлять ошибки ИИ и продолжать развивать медицинские знания. 9 Заблуждение о нирване. Следует упомянуть об одном последнем риске. ИИ может принести огромную пользу в здравоохранении. Заблуждение нирваны утверждает, что проблемы возникают, когда политики и другие лица сравнивают новый вариант с совершенством, а не с существующим положением дел. ИИ в здравоохранении сталкивается с рисками и проблемами. Но нынешняя система также изобилует проблемами. Бездействие из-за несовершенства ИИ создает риск сохранения проблематичного статус-кво.

Возможные решения

Есть несколько способов справиться с возможными рисками, связанными с искусственным интеллектом в здравоохранении:

Генерация и доступность данных. Некоторые риски возникают из-за сложности сбора высококачественных данных способом, совместимым с защитой конфиденциальности пациентов. Один набор возможных решений включает в себя предоставление государством инфраструктурных ресурсов для данных, начиная от установления стандартов для электронных медицинских карт и заканчивая прямой технической поддержкой усилий по сбору высококачественных данных в системах здравоохранения, которым в противном случае не хватает этих ресурсов. Параллельный вариант — прямые инвестиции в создание качественных наборов данных. Отражая это направление, как американская инициатива All of Us, так и британский BioBank нацелены на сбор исчерпывающих медицинских данных об огромном количестве людей. Обеспечение эффективных гарантий конфиденциальности для этих крупномасштабных наборов данных, вероятно, будет иметь важное значение для обеспечения доверия и участия пациентов.

Надзор за качеством. Надзор за качеством системы искусственного интеллекта поможет снизить риск травмирования пациентов. Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) контролирует некоторые продукты искусственного интеллекта для здравоохранения, которые продаются на коммерческой основе. Агентство уже одобрило несколько продуктов для выхода на рынок и творчески думает о том, как лучше контролировать системы ИИ в здравоохранении. Тем не менее, многие системы ИИ в здравоохранении не подпадают под действие FDA либо потому, что они не выполняют медицинских функций (в случае внутреннего бизнеса или ИИ для распределения ресурсов), либо потому, что они разрабатываются и внедряются собственными силами в здравоохранении. сами системы — категория продуктов, за которыми обычно не следит FDA. Эти системы искусственного интеллекта в здравоохранении попадают в нечто вроде пробела в надзоре. Усиление надзора со стороны систем здравоохранения и больниц, профессиональных организаций, таких как Американский колледж радиологии и Американская медицинская ассоциация, или страховых компаний может быть необходимо для обеспечения качества систем, которые не входят в сферу действия регулирующих полномочий FDA. 10

«Обнадеживающее видение состоит в том, что поставщики услуг смогут предоставлять более персонализированный и лучший уход. … Менее обнадеживающее видение показало бы, что провайдеры изо всех сил пытаются выдержать поток неинтерпретируемых прогнозов и рекомендаций от конкурирующих алгоритмов».

Взаимодействие с поставщиками услуг и обучение. Интеграция ИИ в систему здравоохранения, несомненно, изменит роль поставщиков медицинских услуг. Обнадеживающее видение заключается в том, что поставщики услуг смогут оказывать более персонализированную и качественную помощь, а также смогут проводить больше времени, общаясь с пациентами как с людьми. 11 В менее обнадеживающем видении провайдеры изо всех сил пытаются выдержать поток неинтерпретируемых прогнозов и рекомендаций от конкурирующих алгоритмов. В любом случае — или в любом промежуточном варианте — медицинское образование должно подготовить поставщиков услуг к оценке и интерпретации систем ИИ, с которыми они столкнутся в развивающейся среде здравоохранения.


Brookings Institution — некоммерческая организация, занимающаяся независимыми исследованиями и политическими решениями. Его миссия состоит в том, чтобы проводить высококачественные независимые исследования и на основе этих исследований предоставлять новаторские практические рекомендации для политиков и общественности. Выводы и рекомендации любой публикации Brookings принадлежат исключительно ее автору (авторам) и не отражают точку зрения Учреждения, его руководства или других ученых.

Microsoft оказывает поддержку Инициативе Brookings Institution по искусственному интеллекту и новым технологиям (AIET), а Google оказывает общую неограниченную поддержку Учреждению. Выводы, интерпретации и выводы в этом отчете не зависят от каких-либо пожертвований. Brookings признает, что ценность, которую она предоставляет, заключается в абсолютной приверженности качеству, независимости и влиянию. Мероприятия, поддерживаемые его донорами, отражают это обязательство.

Авторы

  • Сноски

    1. В. Николсон Прайс II, Искусственный интеллект в медицинской системе: четыре роли потенциальной трансформации, 18 Yale J. Health Pol’y L. & Ethics (ожидается в 2019 г.), 21 Yale JL & Tech. (ожидается в 2019 г.), https://papers.ssrn.com/abstract_id=3341692.
    2. Ненад Томашев и др., Клинически применимый подход к непрерывному прогнозированию будущего острого повреждения почек, Nature 572: 116-119(2019).
    3. См. примеры на yediagnosis.net.
    4. Лорен Блок и др., После принятия правил рабочего времени 2003 и 2011 годов, как интерны-терапевты проводят свое время?, J. Gen. Intern. Мед. 28(8):1042-1047 (2013).
    5. В. Николсон Прайс II и И. Гленн Коэн, Конфиденциальность в эпоху больших медицинских данных, Nature Medicine 25:37-43 (2019).
    6. И. Гленн Коэн и Мишель М. Мелло, Большие данные, большие технологии и защита конфиденциальности пациентов, JAMA (опубликовано онлайн 9 августа 2019 г.), https://jamanetwork.com/journals/jama/fullarticle/2748399.
    7. Джоан Палмитер Баджорек, Распознавание голоса по-прежнему имеет значительные расовые и гендерные предубеждения, Harvard Bus. Ред. (10 мая 2019 г.), https://hbr.org/2019/05/voice-recognition-still-has-significant-race-and-gender-biases.
    8. Моника К. Гоял и др., Расовые различия в лечении боли у детей с аппендицитом в отделениях неотложной помощи, JAMA Pediatrics 169(11):996-1002 (2015).
    9. А. Майкл Фрумкин и др., Когда ИИ превосходят врачей: опасности чрезмерной зависимости от машинного обучения, вызванной деликтом, 61 Ariz. L. Rev. 61:33 (2019)
    10. В. Николсон Прайс II, Регулирование медицины черного ящика, Мичиган, США, ред. 116(3):421-474 (2017).
    11. Эрик Тополь, Deep Medicine , (Basic Press 2019).

В. Николсон Прайс II, Искусственный интеллект в медицинской системе: четыре роли потенциальной трансформации, 18 Yale J. Health Pol’y L. & Ethics (ожидается в 2019 г.), 21 Yale JL & Tech. (ожидается в 2019 г.), https://papers.ssrn.com/abstract_id=3341692.

Ненад Томашев и др., Клинически применимый подход к непрерывному прогнозированию будущего острого повреждения почек, Nature 572: 116-119(2019).

Примеры см. на сайте yediagnosis.net.

Лорен Блок и др., В свете правил рабочего времени 2003 и 2011 годов, как интерны-терапевты проводят свое время?, J. Gen. Intern. Мед. 28(8):1042-1047 (2013).

В. Николсон Прайс II и И. Гленн Коэн, Конфиденциальность в эпоху больших медицинских данных, Nature Medicine 25:37-43 (2019).

И. Гленн Коэн и Мишель М. Мелло, Большие данные, большие технологии и защита конфиденциальности пациентов, JAMA (опубликовано в Интернете 9 августа., 2019 г.), https://jamanetwork.com/journals/jama/fullarticle/2748399.

Джоан Палмитер Баджорек, Распознавание голоса по-прежнему имеет значительные расовые и гендерные предубеждения, Гарвардский автобус. Ред. (10 мая 2019 г.), https://hbr.org/2019/05/voice-recognition-still-has-significant-race-and-gender-biases.

Моника К. Гоял и др., Расовые различия в лечении боли у детей с аппендицитом в отделениях неотложной помощи, JAMA Pediatrics 169(11):996-1002 (2015).

А. Майкл Фрумкин и др., Когда ИИ превосходят врачей: опасности чрезмерной зависимости от машинного обучения, вызванной деликтом, 61 Ariz. L. Rev. 61:33 (2019)

В. Николсон Прайс II, Регулирование медицины черного ящика, Мичиган Л. Ред. 116(3):421-474 (2017).

Эрик Тополь, Deep Medicine , (Basic Press 2019).

Дополненный интеллект в медицине | Американская медицинская ассоциация

Цифровой

ЧТЕНИЕ 3 МИН

Закладка

Печать страницы

Содержание

  1. Искусственный интеллект и дополненный интеллект
  2. Избранные обновления
  3. CPT® и AI
  4. Последние новости ИИ
  5. ИИ и управление практикой
  6. Отчеты и политика правления
  7. Обучение ИИ в JAMA Network™ и Ed Hub

Палата делегатов AMA использует термин «расширенный интеллект» (ИИ) как концептуализацию искусственного интеллекта, которая фокусируется на вспомогательной роли ИИ, подчеркивая, что его конструкция улучшает человеческий интеллект, а не заменяет его.

AMA сотрудничает с лидерами в области технологий и здравоохранения, чтобы предоставить врачам важную информацию о потенциальных приложениях ИИ и обеспечить, чтобы врачи имели право голоса в формировании роли ИИ в медицине.

  • Чтобы разработать практическое руководство по надежному ИИ в здравоохранении, AMA проанализировала литературу о проблемах, связанных с ИИ в здравоохранении, и рассмотрела существующие руководства. Эти результаты опубликованы в новой статье в Journal of Medical Systems : Trustworthy Augmented Intelligence in Health Care.
  • Объявление о программе CPT® для разработчиков AMA Intelligent Platform, позволяющей разработчикам получать доступ к новейшему контенту и ресурсам. Получите доступ к порталу разработчиков на интеллектуальной платформе AMA.
  • Кимберли Ломис, доктор медицинских наук, вице-президент AMA по медицинским инновациям для студентов, соавтор дискуссионного документа об искусственном интеллекте для преподавателей медицинских профессий с точки зрения NAM.

Текущий набор кодов CPT® способствует обмену данными между учреждениями здравоохранения, обеспечивая бесперебойную обработку и расширенную аналитику медицинских процедур и услуг.

AMA предлагает несколько ресурсов для предоставления рекомендаций по обновленному набору кодов CPT® для классификации различных приложений ИИ, а также консультационные услуги через Консультативную группу по платежам в цифровой медицине (DMPAG). DMPAG выявляет препятствия на пути внедрения цифровой медицины и предлагает комплексные решения по кодированию, оплате, покрытию и т. д.

Будьте в курсе критериев кодов CPT®, получайте доступ к приложениям и читайте часто задаваемые вопросы.

Узнайте, как ИИ используется в здравоохранении, поскольку медицинское сообщество все больше понимает это приложение. Статьи AMA посвящены способам совершенствования кодирования контента, чтобы отразить появление цифрового здравоохранения и диагностики, а также тому, как ИИ должен быть включен в обучение врачей.

Будьте в курсе информации об искусственном интеллекте в здравоохранении, включая последние новости, тенденции и заявления AMA.

Какова роль регулирующих органов в связи с быстрым развитием искусственного интеллекта в здравоохранении?

Почему генеративный ИИ, такой как ChatGPT, не может заменить врачей

Как ИИ и виртуальная реальность помогают врачам оказывать помощь? Код CPT рассказывает историю

Технологические возможности алгоритмов и инструментов ИИ для трансформации здравоохранения существуют, но остаются реальные проблемы, связанные с обеспечением ответственной разработки, внедрения и обслуживания инструментов в вашей практике. Узнайте больше с AMA.

Попечительский совет AMA отвечает за реализацию политики AMA. Учитывая количество заинтересованных сторон и политиков, участвующих в развитии ИИ в здравоохранении, важно, чтобы АМА не только приняла базовый уровень политики для управления взаимодействием, но и в равной степени продолжала совершенствовать политику по мере развития этой технологии.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *