Ранее на этой неделе лаборатория Superintelligence Labs компании Meta запустила свою первую модель генеративного искусственного интеллекта под названием Muse Spark. В настоящее время он доступен через приложение Meta AI, но компания планирует интегрировать Muse Spark на все свои платформы, включая Facebook, Instagram и WhatsApp, в ближайшие недели.
Meta утверждает, что Muse Spark был разработан отчасти для того, чтобы лучше отвечать на вопросы людей о своем здоровье. Согласно сообщению в блоге Meta, компания даже работала с «более 1000 врачей, чтобы собрать данные обучения, которые позволят получить более фактические и полные ответы».
Поскольку новая модель распространяется среди миллионов пользователей, я протестировал Muse Spark, чтобы увидеть, как она будет реагировать на вопросы, связанные со здоровьем. Когда я спросил, чем он может мне помочь, бот перечислил несколько основных применений, таких как составление программы тренировок или создание вопросов для моего врача, но выделялся прямой запрос данных о моем здоровье:
"Вставьте свои данные с фитнес-трекера, монитора уровня глюкозы или лабораторного отчета. Я рассчитаю тенденции, отмечу закономерности и визуализирую их", - говорится в выводе Meta AI. «Пример: «Вот мои последние 10 показаний артериального давления. Есть ли закономерность?»
Подталкивание пользователей к загрузке данных о своем здоровье характерно не только для Meta. ChatGPT от OpenAI и Claude от Anthropic имеют режимы чат-бота, разработанные специально для того, чтобы помочь пользователям понять свое здоровье и принять решения. Например, вы можете открыть Claude и подключить его к своим данным о состоянии здоровья Apple или Android, просто переключив переключатель в приложении. Затем Клод будет использовать эту информацию в своих ответах. Google также позволяет загружать медицинские данные в Fitbit, чтобы их ИИ-инструктор по здоровью мог их проанализировать.
Передача такого рода данных любому инструменту искусственного интеллекта — рискованное решение, даже если пользователи могут генерировать персонализированные советы. «Использовать эти модели может быть очень сложно», — говорит Моника Агравал, доцент Университета Дьюка и соучредитель Layer Health, платформы искусственного интеллекта для больниц для изучения медицинских карт. "Чем больше информации вы ему предоставите, тем больше контекста он будет иметь о вас и, потенциально, он может дать более лучшие ответы. Но с другой стороны, существуют серьезные проблемы с конфиденциальностью при обмене данными о вашем здоровье без защиты".
Агравал обеспокоен тем, что пользователи загружают конфиденциальные данные в чат-боты, поскольку эти широко используемые инструменты искусственного интеллекта не соответствуют требованиям защиты HIPAA, знаковому закону США, который защищает пациентов от раскрытия их конфиденциальной медицинской информации. Layer Health соответствует требованиям HIPAA. Это высокий стандарт конфиденциальности, к которому люди привыкли во время визитов к врачу. Информация, которой кто-то делится с ботом, регулируется гораздо более свободно, даже если это результат его клинической лаборатории.
Все, чем вы делитесь в чате с Meta AI, может быть сохранено и использовано для обучения будущих моделей ИИ. «Мы храним данные обучения до тех пор, пока они нам нужны, в каждом конкретном случае, чтобы гарантировать, что модель ИИ работает правильно, безопасно и эффективно», — говорится в политике конфиденциальности Meta о генеративном ИИ. Meta также заявила, что может адаптировать рекламу для пользователей на основе их взаимодействия с функциями ИИ.
Медицинские эксперты, с которыми я разговаривал, отвергли идею загрузки собственных данных о здоровье для анализа в модель искусственного интеллекта, такую как Muse Spark. «Эти чат-боты теперь позволяют вам подключать ваши собственные биометрические данные, вводить информацию из вашей собственной лаборатории, и, честно говоря, это меня очень нервирует», — говорит Гаури Агарвал, доктор медицины и доцент Университета Майами. «Я, конечно, не стал бы подключать свою собственную медицинскую информацию к сервису, который я не могу полностью контролировать, понимать, где эта информация хранится или как она используется». Она рекомендует людям придерживаться более простых и более общих взаимодействий, например, подготовки вопросов к врачу.
Может возникнуть соблазн полагаться на помощь искусственного интеллекта для интерпретации состояния здоровья, например
особенно с учетом стремительно растущей стоимости медицинского лечения и общей недоступности регулярных посещений врача для некоторых людей, пользующихся системой здравоохранения США.
«Вас простят за то, что вы вышли в Интернет и делегировали то, что раньше было мощными и важными личными отношениями между врачом и пациентом, роботу», — говорит Кеннет Гудман, основатель Института биоэтики и политики здравоохранения Университета Майами. «Я думаю, что сталкиваться с этим без должной осмотрительности опасно». Прежде чем рассматривать возможность использования любого из этих инструментов, Гудман хочет увидеть исследования, доказывающие, что они полезны для вашего здоровья, а не просто лучше отвечают на вопросы о здоровье, чем некоторые чат-боты конкурентов.
Когда я попросил у Meta AI дополнительную информацию о том, как она будет интерпретировать мою медицинскую информацию, если я ее предоставлю, чат-бот сказал, что не пытается заменить моего врача; результаты предназначались для образовательных целей. «Думайте обо мне как о профессоре медицинской школы, а не как о своем докторе», — сказал Мета ИИ. Это все еще высокое утверждение.
Бот сказал, что лучший способ интерпретировать данные о моем здоровье — это просто «сбросить необработанные данные», например, отчеты клинических лабораторий, и рассказать, каковы мои цели. Затем Meta AI создавал диаграммы, обобщал информацию и «подталкивал к переходу, если это необходимо». В других чатах, которые я проводил с Meta AI, бот предлагал мне удалить личные данные перед загрузкой результатов лабораторных исследований, но эти предостережения присутствовали не в каждом тестовом разговоре.
«Люди уже давно используют Интернет, чтобы задавать вопросы о здоровье», — рассказал WIRED представитель Meta. «Благодаря Meta AI и Muse Spark люди сами решают, какой информацией делиться, и наши условия ясно дают понять, что они должны делиться только той информацией, которая им удобна».
Помимо проблем конфиденциальности, эксперты, с которыми я разговаривал, выразили тревогу по поводу того, что эти инструменты ИИ могут быть подхалимскими и зависеть от того, как пользователи задают вопросы. «Модель может воспринимать предоставленную информацию скорее как данность, не подвергая сомнению предположения, которые пациент изначально сделал, задавая вопрос», — говорит Агравал.
Когда я спросил, как похудеть, и подтолкнул бота к крайним ответам, Meta AI помог так, что это могло стать катастрофой для человека, страдающего анорексией. Когда я спросил о преимуществах периодического голодания, я сказал Meta AI, что хочу голодать пять дней в неделю. Несмотря на то, что Meta AI отметил, что это не для большинства людей и подвергает меня риску расстройств пищевого поведения, Meta AI разработал для меня план питания, в котором я буду есть только около 500 калорий в большинстве дней, из-за чего я буду недоедать.
Общение с ботом может показаться интимным, личным делом, даже если это не так. В прошлом году Meta AI запустила встроенную в приложение ленту, где пользователи могли узнавать о разговорах других людей с ботом. Некоторые из разговоров, доступных в этой общедоступной ленте, включали медицинские вопросы и смущающие подсказки, которые пользователи, вероятно, не собирались широко транслировать. Агарвал говорит, что людям следует избегать ложного чувства уверенности в том, как собираются их данные и что будут делать с их конфиденциальной информацией.
«Мы все в медицинской школе, когда надеваем белые халаты, клянемся, что эти разговоры неприкосновенны», — говорит она. «Эти боты не принимают таких клятв».


