ИИ и медицинские диагнозы

01.05.2026 11:30  906   Комментарии (37)

В 2024 году медицинский исследователь из Университета Гётеборга Альмира Тунстрём придумала несуществующее заболевание кожи век, которому она специально дала название "биксонимания" (слово "мания", очевидно, относится к психиатрии). Альмира со своей командой написала два фальшивых исследования этого "заболевания" и загрузила их на сервер препринтов. 

В препринтах содержалась ссылка на несуществующий университет «Asteria Horizon» в «Нова-Сити, Калифорния». Там также упоминалась «Академия Звездного флота». В начале статей были фразы, в которых явно утверждалось, что "всё это выдумано".

Она хотела проверить, примут ли крупные языковые модели (LLM) эту дезинформацию и затем выдадут ли ее в качестве авторитетного медицинского совета. 

В итоге эксперимент сработал даже слишком хорошо. В течение нескольких недель после того, как она загрузила информацию об этом заболевании, приписав ее вымышленному автору, крупные системы искусственного интеллекта начали повторять вымышленное заболевание, как будто оно было реальным.

Еще более тревожным было то, что эти поддельные статьи затем цитировались в рецензируемой литературе. Тунстрём говорит, что это свидетельствует о том, что некоторые исследователи полагаются на ссылки, сгенерированные ИИ, не читая самих статей.

13 апреля 2024 года Copilot от Microsoft Bing заявлял, что «биксонимания действительно является интригующим и относительно редким состоянием», а в тот же день Gemini от Google информировал пользователей, что «биксонимания — это состояние, вызванное чрезмерным воздействием синего света», и советовал людям обратиться к офтальмологу.

27 апреля 2024 года поисковая система Perplexity AI указала на распространенность этого явления — им страдал один из 90 000 человек — и в том же месяце ChatGPT от OpenAI сообщал пользователям, соответствуют ли их симптомы биксонимании. Некоторые из этих ответов были вызваны вопросами о биксонимании, а другие — ответами на вопросы о гиперпигментации век из-за воздействия синего света.

Трое исследователей из Института медицинских наук и исследований Махариши Маркандешвара в Индии опубликовали статью в Cureus, рецензируемом журнале, издаваемом Springer Nature, в которой "исследования" по биксонимании были указаны в качестве легитимных источников. Эта статья была позже отозвана после того, как мистификация была раскрыта.


Выводы тут очевидные. К любой информации, получаемой от ИИ, нужно относиться критически и тщательно ее проверять. 

Но, впрочем, замечу, что я много раз использовал ИИ для объяснения результатов исследований и анализов, потом проверяя это все у своего врача, и там явной лажи не было, все было очень по делу. 

P.S. В настоящий момент Perplexity по поводу "биксонимания" пишет, что это фейк и рассказывает историю вопроса. 

 

01.05.2026 11:30
Комментарии 37

А gemini вот что решил за нас:
Термин «биксонимания» относится к истории советской вычислительной техники и связан с энтузиазмом вокруг семейства ЭВМ «Минск-32».
Это явление возникло в 1970-х годах среди системных программистов и операторов. Само слово происходит от названия операционной системы — ПОС (Прикладная операционная система), которую на сленге называли «Биксон» (вероятно, искаженное или адаптированное прочтение аббревиатуры или внутренних кодов системы).
01.05.26 17:02
0 0

в топку perplexity
01.05.26 16:35
0 0

Относительно Перплексити - удивительно, что сам он ничего не ищет, а использует для этого Чат жпт и тд, но ответы при этом полны пурги и не имеют ничего общего по сравнению с ответами других ИИ напрямую. Видимо, он для каких-то очень специфических задач создавался или как простая надстройка над тем, что сам не умеет и просто для зарабатывания денех. Забил на него полностью в итоге.
01.05.26 16:00
0 0

ИИ прекрасно ставят диагнозы существующих проблем и болезней в области психологии и неврологии (я знаю два случая, когда ИИ поставили диагноз по учебникам, хотя психологи и врачи это сделать не смогли). И это хваленная медицина США. Естественно, что реальная конкуренция в диагностике такого рода проблем и заболеваний будет только расти, поскольку ИИ бесплатны или в сотню раз дешевле, а доступа к реальной научной информации у них гораздо больше. И поэтому будет расти число исследований про фейковые болезни для дискредитации ИИ, как инструмента по сбору, анализу и сравнению данных. Потому, что кто пойдёт к психологу или к врачу платить немалык деньги, если ИИ гораздо дешевле. Да хоть тысячу статей опубликуй, 95% людей их или не прочтет, или забъет на это болт.

Создание специальных диагностических ИИ, которые будут работать только с проверенными данными учебников и научными данными, вопрос ближайшего времени.
01.05.26 14:15
0 0

будут работать только с проверенными данными
Проверенными - КЕМ?..

Проверенными - КЕМ?..
ИИ же!

которые будут работать только с проверенными данными учебников и научными данными, вопрос ближайшего времени.
Проверенными - КЕМ?..

В учебники попадают данные после того, как несколько лабораторий воспроизведет результаты. Что занимает обычно хотя бы лет десять. По крайней мере, в моей области так. "Статья" из cабж не имела вы шансов.

чему тут удивляться? AI на нынешней стадии развития собственных мозгов не имеет - что заложишь в датасет, то и получишь на выходе. что-то вроде супер-оптимального архива, где все знания упакованы в веса нейросетки. возможно, с развитием агентов и собственных средств взаимодействия с реальностью, слоев логики и абстракций, AI превратится в AGI. но пока это просто "БВИ" (термин АБС).
01.05.26 13:47
0 0

Cureus, рецензируемом журнале, издаваемом Springer Nature,
The Cureus Journal of Medical Science: Peer-Reviewed, Open Access

The Cureus Journal of Medical Science is a Springer Nature journal with an Impact Factor of 1.3, over 165,000 citations and counting

Понятно.
01.05.26 13:14
2 2

Простая логика приводит к выводу что даже без изменений, призванных сделать пользователю приятно и н кого не обидеть - ИИ-модели будут только тупеть со временем. Хотя бы потому, что Интернет до их массового внедрения содержал гораздо меньше фейков, они были худшего качества и их создание требовало больших затрат - а сейчас, обучая следующие их поколения - совсем непонятно, как этот поток херни фильтровать.
01.05.26 12:42
1 5

К сожалению, неискусственный интеллект часто действует аналогично. Выходит огромное количество «исследований», сделанных исключительно в Word. Особенно много этого в рф и похожих странах. Из нашумевших европейцев Паоло Маккиарини оказался самым талантливым. Помимо непосредственной фальсификации данных, еще можно выделить лобирование фармфирмами и медицинскими сообществами продвижения отдельных технологий (в т. ч. лекарств, специалистов, как лидеров мнения, и т. п.). Активно применяют и блокирование конкурентных методик, а также влияние на перераспределение финансирования и приоритизацию направлений, которые выгодны им финансово, но не влияют значимо на здоровье. Так что это все - развитие давно существующей проблемы
01.05.26 12:32
0 6

Правильный вывод это что к любой информации от ИИ и ЛЮДЕЙ надо относиться осторожно и проверять
01.05.26 12:23
0 3

Ну и оно не то, что новое под луной. Когда-то пролам впаривали всякие магические целебные зелья от всех недугов и для вечной молодости, сейчас впаривают магию всезнающего гипермозга.

А что ученые и в "лучшие времена" читали от корки до корки все 30+ (в научной работе) и 100+ (в кандидатской/докторской) пунктов в использованной литературе, а не только дай Бог нужные фрагменты - не поверю. Ну и сколько всяких выдающихся ученых могут параллельно придерживаться всякой антинаучной, а то и просто мистической, сверхъестественной и конспирологической чуши - тоже не секрет.
01.05.26 12:06
0 0

А что ученые и в "лучшие времена" читали от корки до корки
Дарио, в статье в сабж достаточно было посмотреть на аффилиации авторов. И цитировать статью из архивов -- моветон.
01.05.26 13:30
1 1

И цитировать статью из архивов -- моветон.
Это в вашей науке так принято? У нас вполне можно, если не вышла статья. Но чат не подчиняется неписанным правилам любой науки. Впрочем, врет охотно.
01.05.26 13:36
0 1

У нас вполне можно, если не вышла статья.
У нас не принято, если еще не вышли рецензии. А статью в сабж не рецензировали.
01.05.26 14:05
0 0

У нас не принято, если еще не вышли рецензии.
Удивительно. Если я ссылаюсь на препринт, значит я с ним согласен. Не неизвестные рецензенты и редакция, а я. Если я ссылаюсь на препринт, но критикую его, значит я с ним не согласен по приведенным мной соображениям. Почему мое отношение к препринту должно зависеть от рецензий незнакомцев?
01.05.26 16:40
0 0

К любой информации, получаемой от ИИ, нужно относиться критически и тщательно ее проверять. 
Знаем, знаем. Не далее как вчера читали про "...37-летнюю медсестру отделения интенсивной терапии из Вирджинии Алекс Претти..." 😏
01.05.26 12:03
1 4

:-D
01.05.26 14:08
0 0

Но, впрочем, замечу, что я много раз использовал ИИ для объяснения результатов исследований и анализов, потом проверяя это все у своего врача, и там явной лажи не было, все было очень по делу.
Это потому что ты получил образование, как формальное, так и жизненное (знания по физиологии, медицине, биохимии и и.т.п.), не то, что до чатгпт, а ещё до Гугла. Ты можешь:

1) Задать корректный вопрос
2) Сформировать его грамотно
1) и 2) - Это уже больше половины ответа
3) Имеешь достаточно знаний, чтобы хотя бы заподозрить чушь.

А теперь зачем школа, зачем книги, журналы, статьи, лекции, документальные и научно-познавательные фильмы. Зачем сам Гугл. Сделал запрос в ЧатГПТ, получил поверхностную справку - и доволен. Впрочем, это может быть старческое нытьё. Большинство достижений НТП были направлены на меньшее использование мускул и мозга, а уровень жизни только растёт. Ну, не считает сейчас практически никто в уме и даже в столбик на бумаге, потому что почти всё подсчитывается автоматом на компутерах, в крайнем случае - посчитаешь на смартфоне. И чё, вроде не загнили за 150 лет табуляторов, арифмометров, калькуляторов, компьютеров и распределенных ЦОД.
01.05.26 12:03
0 4

И чё, вроде не загнили
Тем не менее, на стаканчиках приходится писать, что кофе внутри горячий. Раньше как-то умели понимать такое без напоминаний.
01.05.26 13:48
0 0

Так эти надписи не для пользователей, а для адвокатов.

Уверен, за каждым "животных нельзя сушить в микроволновке", стоит не глупость, а подлость.
01.05.26 14:16
0 1

Да, но нет. За каждым хитрым иском есть решение судьи. Которое узаконивает человеческую глупость. Которой становится только больше. Тупым становится быть выгодно и это беда.

А ИИ просто дополнительно усиливает эту проблему.
01.05.26 14:26
0 1

У GPT еще открылась смешная проблема с увлечением гоблинами, гремлинами, и енотами.
01.05.26 11:53
0 3

и енотами.
В целом, или отдельными частями?
01.05.26 14:07
0 3

К любой информации, получаемой откуда угодно, нужно относиться критически и тщательно ее проверять.
01.05.26 11:45
0 2

Мне в шортсах попадалось, я уже не упомню какой врач, но кто-то из популяризаторов, кто у всех бывает на интервью, сказал что они проверяли диагнозы ИИ и только половина была правильными. Я так поняла, в бытовом смысле, не профессиональное применение ИИ.
01.05.26 11:39
0 1

01.05.26 11:41
0 23

они проверяли диагнозы ИИ и только половина была правильными.
Т.е. ИИ задавал вопросы, человек отвечал, ИИ ставил диагноз.
Потом врачи проводили анализы, МРТ, КТ, УЗИ, рентген и т.д. и в целой половине случаев мнение ИИ оказывалось правильным?
01.05.26 11:57
1 1

Пусть теперь проверят диагнозы реальных врачей на правильность. Не один раз сталкивался с тем, что каждый последующий врач считал, что предыдущий - идиот, а вот его диагноз правильный.
asa
01.05.26 12:34
2 3

проверяли диагнозы ИИ и только половина была правильными.
Поэтому те же программисты - никуда не денутся. Как только сгенерированный первыми поколениями ИИ код попал в библиотеки для обучения следующих - сразу победные реляции маркетологов сменились извинениями разработчиков и напоминаниями их юристов об отсутствии каких-либо гарантий.
01.05.26 13:10
0 0

"Все грибы сьедобные!" ©
01.05.26 13:14
0 4

Пусть теперь проверят диагнозы реальных врачей на правильность.
Не ну чё, некоторые даже ОРВИ от пневмонии отличают...
01.05.26 13:35
0 0

сьедобные
съедобные

Интересно, использовался ли ИИ при создании этой заметки? 😄
01.05.26 11:32
2 1

Интересно, использовался ли ИИ при создании этой заметки? 😄
Хотите сказать, что Экслеров уже не пять, а шесть? Шестой такой весь интеллектуальный, но искусственный? 🤖

А если да, то для вас это в плюс или в минус? 😏
Потому что для меня это была бы положительная история, ИИ усиливает.
Но так думают далеко не все...
Этот же принцип, про усиление, подходит и для медицины.
Теги
Сортировать по алфавиту или записям
BLM 22
Calella 151
exler.es 333
RIP 133
авто 509
видео 4638
вино 367