هشدار درباره سوءتفاهمها در فرضیههای تحقیقاتی تولیدشده توسط هوش مصنوعی
در دنیای علم امروز، هوش مصنوعی (AI) به ابزاری قدرتمند برای کشف ایدههای جدید تبدیل شده است. از شیمی و زیستشناسی گرفته تا پزشکی، پژوهشگران از مدلهای هوش مصنوعی برای تولید فرضیههای نو استفاده میکنند. اما آیا میتوان به این مدلها اعتماد کامل داشت؟ مقالهای که در تاریخ آوریل ۲۰۲۵ در وبسایت Phys.org منتشر شد، به قلم پژوهشگران دانشگاه بن آلمان، به این موضوع پرداخته و هشدار میدهد که استفاده نادرست از هوش مصنوعی ممکن است به سوءبرداشتهای علمی منجر شود. این گزارش، که در مجلهی Cell Reports Physical Science منتشر شده، هم محدودیتهای این فناوری را توضیح میدهد و هم شرایطی را که میتوان به نتایج آن اطمینان کرد، روشن میسازد.
هوش مصنوعی در علم: جعبهای سیاه و مرموز
مدلهای هوش مصنوعی، بهویژه آنهایی که از یادگیری ماشینی تطبیقی (Adaptive Machine Learning) استفاده میکنند، توانایی شگفتانگیزی در تحلیل دادههای عظیم دارند. برای مثال، اگر هزاران عکس از ماشینها به یک الگوریتم بدهید، این مدل میتواند یاد بگیرد که یک ماشین را در عکس جدید تشخیص دهد. اما سؤال اینجاست: این تشخیص بر چه اساسی انجام میشود؟ آیا الگوریتم واقعاً ویژگیهای اصلی یک ماشین—مثل چهار چرخ یا شیشهی جلو—را درک کرده، یا بر اساس چیزی بیربط مثل آنتن روی سقف تصمیم میگیرد؟ اگر چنین باشد، ممکن است یک رادیو را هم به اشتباه ماشین تشخیص دهد!
پروفسور یورگن بایورات، متخصص شیمی محاسباتی از دانشگاه بن و رئیس بخش هوش مصنوعی در علوم زیستی در موسسه لامار، این مدلها را «جعبههای سیاه» مینامد. او تأکید میکند که چون فرآیند تصمیمگیری این الگوریتمها از بیرون قابلمشاهده نیست، نباید بهطور کورکورانه به نتایجشان اعتماد کرد. این موضوع بهویژه در علوم طبیعی، جایی که دقت و قابلیت تعمیم نتایج حیاتی است، اهمیت بیشتری پیدا میکند.
توضیحپذیری: تلاش برای باز کردن جعبه سیاه
یکی از مفاهیم کلیدی که در این گزارش مطرح میشود، «توضیحپذیری» (Explainability) است. پژوهشگران هوش مصنوعی در تلاشند تا با ایجاد روشهایی، به اصطلاح «حفرهای» در این جعبه سیاه ایجاد کنند تا بفهمند الگوریتمها بر چه اساسی تصمیم میگیرند. مثلاً آیا تشخیص ماشین بر اساس چرخها بوده یا آنتن؟ پروفسور بایورات میگوید که باز کردن این جعبه سیاه اکنون یکی از موضوعات اصلی در تحقیقات هوش مصنوعی است. حتی مدلهایی طراحی شدهاند که فقط برای توضیح دادن نتایج مدلهای دیگر کار میکنند.

اما توضیحپذیری تنها بخشی از ماجراست. فرض کنید الگوریتم بگوید که آنتن دلیل تشخیص ماشین بوده است. یک انسان فوراً متوجه میشود که این معیار مناسبی نیست. اما اگر ما مثل موجودات فضایی باشیم که هیچ اطلاعی از ماشینها نداریم، چطور میتوانیم بفهمیم کدام معیار درست است؟ در علم، این مشکل بزرگتر میشود، زیرا هوش مصنوعی اغلب الگوهایی را در دادهها پیدا میکند که انسانها حتی متوجه آنها نمیشوند. اینجا باید بپرسیم: آیا این الگوها واقعاً معنیدارند؟
کاربرد در شیمی: مولکولهای جدید از دل هوش مصنوعی
در شیمی و داروسازی، مدلهای زبانی شیمیایی (Chemical Language Models) اکنون بسیار محبوباند. این مدلها میتوانند اطلاعات زیادی دربارهی مولکولهایی با ویژگیهای خاص (مثلاً فعالیت بیولوژیکی) دریافت کنند و سپس مولکول جدیدی پیشنهاد دهند که همان ویژگی را داشته باشد، اما ساختاری متفاوت. این فرآیند، که به «مدلسازی مولد» (Generative Modeling) معروف است، میتواند به کشف داروهای جدید کمک کند. اما مشکل اینجاست که این مدلها معمولاً نمیتوانند توضیح دهند چرا این مولکول را پیشنهاد دادهاند.
پروفسور بایورات هشدار میدهد که نباید این پیشنهادها را بیش از حد تفسیر کنیم. او میگوید: «مدلهای فعلی هوش مصنوعی هیچ درکی از شیمی ندارند. آنها فقط بر اساس آمار و همبستگی کار میکنند و به هر ویژگی متمایزی توجه میکنند، حتی اگر از نظر شیمیایی یا بیولوژیکی بیمعنی باشد.» مثلاً ممکن است یک مدل، مولکولی را به خاطر یک گروه شیمیایی خاص پیشنهاد دهد، اما این گروه هیچ ربطی به فعالیت موردنظر نداشته باشد—مثل همان آنتن روی ماشین!
نیاز به آزمایش و بررسی معقول
با این حال، گاهی این پیشنهادها درست از آب درمیآیند—مولکول پیشنهادی واقعاً کار میکند. اما دلیلش ممکن است کاملاً متفاوت از چیزی باشد که ما انتظار داریم. برای فهمیدن اینکه آیا ویژگیهای انتخابشده توسط هوش مصنوعی واقعاً علت فعالیت مولکول هستند یا فقط یک همبستگی تصادفیاند، آزمایشهای عملی لازم است. پژوهشگران باید مولکول را در آزمایشگاه بسازند و تست کنند و حتی مولکولهای دیگری با همان ویژگی را بررسی کنند تا رابطهی علت و معلولی را تأیید کنند.
این آزمایشها زمانبر و پرهزینهاند. به همین دلیل، بایورات پیشنهاد میکند که قبل از هر اقدامی، یک «بررسی معقولیت» (Plausibility Check) انجام شود. آیا ویژگی پیشنهادی توسط هوش مصنوعی از نظر علمی منطقی است؟ آیا ارزش پیگیری دارد، یا فقط یک همبستگی بیمعنی مثل آنتن ماشین است؟ این بررسی نیاز به دانش عمیق علمی دارد تا از هدر رفتن منابع جلوگیری کند.
پتانسیل و محدودیتها
هوش مصنوعی بدون شک میتواند علم را متحول کند. توانایی آن در پیدا کردن الگوهای پنهان در دادهها، راه را برای اکتشافات جدید باز میکند. اما پروفسور بایورات تأکید میکند که باید نقاط قوت و ضعف آن را شناخت. قدرت این مدلها در تحلیل آماری است، اما ضعفشان در ناتوانی در درک مفاهیم علمی یا برقراری روابط علّی است. برای استفادهی درست از هوش مصنوعی، دانشمندان باید با احتیاط عمل کنند و همیشه نتایج را با آزمایش و منطق علمی اعتبارسنجی کنند.
گزارش دانشگاه بن یادآوری مهمی است: هوش مصنوعی ابزاری شگفتانگیز اما ناکامل است. این فناوری میتواند ایدههای جدیدی به ما بدهد، اما نمیتوانیم بدون بررسی دقیق به آن تکیه کنیم. در نهایت، علم به ترکیب هوش مصنوعی و هوش انسانی نیاز دارد تا از سوءتفاهمها جلوگیری کند و به کشف حقیقت نزدیکتر شود.
ko-fi.com/itnights
hamibash.com/pnazemi