هومص در تحقیقات پزشکی: کارآمد به شرط احتیاط

هشدار درباره سوءتفاهم‌ها در فرضیه‌های تحقیقاتی تولیدشده توسط هوش مصنوعی

در دنیای علم امروز، هوش مصنوعی (AI) به ابزاری قدرتمند برای کشف ایده‌های جدید تبدیل شده است. از شیمی و زیست‌شناسی گرفته تا پزشکی، پژوهشگران از مدل‌های هوش مصنوعی برای تولید فرضیه‌های نو استفاده می‌کنند. اما آیا می‌توان به این مدل‌ها اعتماد کامل داشت؟ مقاله‌ای که در تاریخ آوریل ۲۰۲۵ در وب‌سایت Phys.org منتشر شد، به قلم پژوهشگران دانشگاه بن آلمان، به این موضوع پرداخته و هشدار می‌دهد که استفاده نادرست از هوش مصنوعی ممکن است به سوء‌برداشت‌های علمی منجر شود. این گزارش، که در مجله‌ی Cell Reports Physical Science منتشر شده، هم محدودیت‌های این فناوری را توضیح می‌دهد و هم شرایطی را که می‌توان به نتایج آن اطمینان کرد، روشن می‌سازد.

هوش مصنوعی در علم: جعبه‌ای سیاه و مرموز

مدل‌های هوش مصنوعی، به‌ویژه آن‌هایی که از یادگیری ماشینی تطبیقی (Adaptive Machine Learning) استفاده می‌کنند، توانایی شگفت‌انگیزی در تحلیل داده‌های عظیم دارند. برای مثال، اگر هزاران عکس از ماشین‌ها به یک الگوریتم بدهید، این مدل می‌تواند یاد بگیرد که یک ماشین را در عکس جدید تشخیص دهد. اما سؤال اینجاست: این تشخیص بر چه اساسی انجام می‌شود؟ آیا الگوریتم واقعاً ویژگی‌های اصلی یک ماشین—مثل چهار چرخ یا شیشه‌ی جلو—را درک کرده، یا بر اساس چیزی بی‌ربط مثل آنتن روی سقف تصمیم می‌گیرد؟ اگر چنین باشد، ممکن است یک رادیو را هم به اشتباه ماشین تشخیص دهد!

پروفسور یورگن بایورات، متخصص شیمی محاسباتی از دانشگاه بن و رئیس بخش هوش مصنوعی در علوم زیستی در موسسه لامار، این مدل‌ها را «جعبه‌های سیاه» می‌نامد. او تأکید می‌کند که چون فرآیند تصمیم‌گیری این الگوریتم‌ها از بیرون قابل‌مشاهده نیست، نباید به‌طور کورکورانه به نتایجشان اعتماد کرد. این موضوع به‌ویژه در علوم طبیعی، جایی که دقت و قابلیت تعمیم نتایج حیاتی است، اهمیت بیشتری پیدا می‌کند.

توضیح‌پذیری: تلاش برای باز کردن جعبه سیاه

یکی از مفاهیم کلیدی که در این گزارش مطرح می‌شود، «توضیح‌پذیری» (Explainability) است. پژوهشگران هوش مصنوعی در تلاشند تا با ایجاد روش‌هایی، به اصطلاح «حفره‌ای» در این جعبه سیاه ایجاد کنند تا بفهمند الگوریتم‌ها بر چه اساسی تصمیم می‌گیرند. مثلاً آیا تشخیص ماشین بر اساس چرخ‌ها بوده یا آنتن؟ پروفسور بایورات می‌گوید که باز کردن این جعبه سیاه اکنون یکی از موضوعات اصلی در تحقیقات هوش مصنوعی است. حتی مدل‌هایی طراحی شده‌اند که فقط برای توضیح دادن نتایج مدل‌های دیگر کار می‌کنند.

Credit: Jürgen Bajorath/University of Bonn

اما توضیح‌پذیری تنها بخشی از ماجراست. فرض کنید الگوریتم بگوید که آنتن دلیل تشخیص ماشین بوده است. یک انسان فوراً متوجه می‌شود که این معیار مناسبی نیست. اما اگر ما مثل موجودات فضایی باشیم که هیچ اطلاعی از ماشین‌ها نداریم، چطور می‌توانیم بفهمیم کدام معیار درست است؟ در علم، این مشکل بزرگ‌تر می‌شود، زیرا هوش مصنوعی اغلب الگوهایی را در داده‌ها پیدا می‌کند که انسان‌ها حتی متوجه آن‌ها نمی‌شوند. اینجا باید بپرسیم: آیا این الگوها واقعاً معنی‌دارند؟

کاربرد در شیمی: مولکول‌های جدید از دل هوش مصنوعی

در شیمی و داروسازی، مدل‌های زبانی شیمیایی (Chemical Language Models) اکنون بسیار محبوب‌اند. این مدل‌ها می‌توانند اطلاعات زیادی درباره‌ی مولکول‌هایی با ویژگی‌های خاص (مثلاً فعالیت بیولوژیکی) دریافت کنند و سپس مولکول جدیدی پیشنهاد دهند که همان ویژگی را داشته باشد، اما ساختاری متفاوت. این فرآیند، که به «مدل‌سازی مولد» (Generative Modeling) معروف است، می‌تواند به کشف داروهای جدید کمک کند. اما مشکل اینجاست که این مدل‌ها معمولاً نمی‌توانند توضیح دهند چرا این مولکول را پیشنهاد داده‌اند.

پروفسور بایورات هشدار می‌دهد که نباید این پیشنهادها را بیش از حد تفسیر کنیم. او می‌گوید: «مدل‌های فعلی هوش مصنوعی هیچ درکی از شیمی ندارند. آن‌ها فقط بر اساس آمار و همبستگی کار می‌کنند و به هر ویژگی متمایزی توجه می‌کنند، حتی اگر از نظر شیمیایی یا بیولوژیکی بی‌معنی باشد.» مثلاً ممکن است یک مدل، مولکولی را به خاطر یک گروه شیمیایی خاص پیشنهاد دهد، اما این گروه هیچ ربطی به فعالیت موردنظر نداشته باشد—مثل همان آنتن روی ماشین!

نیاز به آزمایش و بررسی معقول

با این حال، گاهی این پیشنهادها درست از آب درمی‌آیند—مولکول پیشنهادی واقعاً کار می‌کند. اما دلیلش ممکن است کاملاً متفاوت از چیزی باشد که ما انتظار داریم. برای فهمیدن اینکه آیا ویژگی‌های انتخاب‌شده توسط هوش مصنوعی واقعاً علت فعالیت مولکول هستند یا فقط یک همبستگی تصادفی‌اند، آزمایش‌های عملی لازم است. پژوهشگران باید مولکول را در آزمایشگاه بسازند و تست کنند و حتی مولکول‌های دیگری با همان ویژگی را بررسی کنند تا رابطه‌ی علت و معلولی را تأیید کنند.

این آزمایش‌ها زمان‌بر و پرهزینه‌اند. به همین دلیل، بایورات پیشنهاد می‌کند که قبل از هر اقدامی، یک «بررسی معقولیت» (Plausibility Check) انجام شود. آیا ویژگی پیشنهادی توسط هوش مصنوعی از نظر علمی منطقی است؟ آیا ارزش پیگیری دارد، یا فقط یک همبستگی بی‌معنی مثل آنتن ماشین است؟ این بررسی نیاز به دانش عمیق علمی دارد تا از هدر رفتن منابع جلوگیری کند.

پتانسیل و محدودیت‌ها

هوش مصنوعی بدون شک می‌تواند علم را متحول کند. توانایی آن در پیدا کردن الگوهای پنهان در داده‌ها، راه را برای اکتشافات جدید باز می‌کند. اما پروفسور بایورات تأکید می‌کند که باید نقاط قوت و ضعف آن را شناخت. قدرت این مدل‌ها در تحلیل آماری است، اما ضعفشان در ناتوانی در درک مفاهیم علمی یا برقراری روابط علّی است. برای استفاده‌ی درست از هوش مصنوعی، دانشمندان باید با احتیاط عمل کنند و همیشه نتایج را با آزمایش و منطق علمی اعتبارسنجی کنند.

گزارش دانشگاه بن یادآوری مهمی است: هوش مصنوعی ابزاری شگفت‌انگیز اما ناکامل است. این فناوری می‌تواند ایده‌های جدیدی به ما بدهد، اما نمی‌توانیم بدون بررسی دقیق به آن تکیه کنیم. در نهایت، علم به ترکیب هوش مصنوعی و هوش انسانی نیاز دارد تا از سوءتفاهم‌ها جلوگیری کند و به کشف حقیقت نزدیک‌تر شود.

در صورتی که محتوای پروژه «در این شب‌ها» — شامل وب‌سایت، ویدیوکست‌ها و دوره‌های آموزشی — را ارزشمند می‌دانید و مایل به حمایت از تداوم و گسترش آن هستید، می‌توانید از طریق یکی از لینک‌های زیر از این پروژه حمایت کنید

ko-fi.com/itnights
hamibash.com/pnazemi

دیدگاهتان را بنویسید

*

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.