
با توسعه سریع و محبوبیت بالای یکی از ابزارهای هوش مصنوعی به نام Chat GPT در ماههای اخیر بر هشدارها درباره آینده هوش مصنوعی نیز افزودهشده است. نامه اخیر گروهی از چهرههای فناوری یکی از آخرین نمونهها است اما آیا این هشداری صادقانه است؟
فناوریهای نوین زمانی که به مرزهای تغییر سبک زندگی میرسند با واکنشی دوگانه از سوی جامعه مواجه میشوند. چه جامعه متخصصان آن رشته و چه عموم مردم. معمولاً این مواجهه همراه با دوگانهای از شیدایی و هراس است. از یکسو موج کاربران از امکان جدید استقبال میکنند و متخصصان سعی میکنند از ابزار و روش تازه در محصولات خود استفاده کنند. از سوی دیگر برخی از آینده نگران و متخصصان آن رشته درباره جوانب ناشناخته فناوری نو و ضرورت تمرکز بر مطالعه پیش زا توسعه بیشتر هشدار میدهند.
فرقی نمیکند این مساله ظهور اینترنت باشد یا ابزار ویرایش ژنی کریسپر – کَس ۹ یا هر چیز دیگر.
این روزها شاهد بازنمایی این رویکرد دوگانه درباره آن چیزی هستیم که به هوش مصنوعی معروف است.
این مورد اخیر اما تفاوتهایی با مواجههای قبلی ما دارد.
از یکسو ما – بهعنوان بدنه غیرمتخصص جامعه – دارای پیشفرض غیردقیقی از موضوع بحث هستیم. هوش مصنوعی برای من و شما احتمالاً بیانگر تصویری است که از آینده در ادبیات علمی تخیلی یا آثار آینده نگران دیدهایم.
جایی که هوش مصنوعی که به معنی دقیق کلمه بازساخته هوش انسانی در ماشین است به مرز خودآگاهی میرسد و میتواند فراتر از تأثیر بر زندگی ما، مهار آن را به دست گیرد و بهجای ما تصمیمگیری کرده و حتی دست به اقدام بزند.
داستانهای هشدارآمیزی چون اسکای نت ترمیناتور نمونههای شاخصی از این هراس را به تصویر کشیدهاند.
حالا ما با پدیدهای مواجه هستیم که به نظر میرسد در گفتگو با ما میتواند مانند همردهای و همسانی چون ما واکنش نشان دهد.
یکی از آزمونهای قدیمی هوش مصنوعی آزمونی است که به نام آزمون تورینگ. بهطور خلاصه این آزمون بیان میدارد اگر شما از پشت دیواری با موجودی به سخن بنشینید و نتوانید تشخیص دهید که آیا با انسان صحبت میکنید یا ماشین، در این صورت هوش مصنوعی شما از پسآزمون تورینگ برآمده است و واقعاً میتوان نام هوش مصنوعی را بر آن گذاشت.
برای بسیاری از ما در مواجهه روزمره و ساده با ابزاری مانند Chat GPT به نظر میرسد که این ابزار از این آزمون سربلند بیرون میآید. اما واقعیت با این تجربه متفاوت است و کافی است کمی با آن سروکله بزنید تا خودش را بر شما آشکار کند.
پیش از اینکه نگران یا هیجانزده شویم بد نیست قدمی عقب بگذاریم و از دور صحنه را ببینیم.
آیا هوش مصنوعی واقعا هوش مصنوعی است؟
نسخههای رایج و امروزی معروف هوش مصنوعی ازجمله Chat GPT و محصولات مشابه معرفیشده از سوی گوگل و مایکروسافت، بههیچوجه هوش مصنوعی – به معنی که من و شما در ذهن داریم نیستند.
در مورد معروف Chat GPT ما با یک ابزار هوشمند سروکار نداریم که به معنی انسانی فکر کند، آگاه باشد یا حتی نسبت به محتوایی که تولید میکند آگاهی داشته باشد.
کاری که این ابزارها انجام میدهند استفاده از مدلهای زبانی هستند.
به این معنی که با استفاده از روشهای متفاوتی از شبکههای عصبی گرفته تا یادگیری ماشین و بر اساس آموزشی که دیدهاند، روابط مشخصی را میان کلمات پیدا میکنند. شما وقتی تمام حجم دادههای مکتوب موجود روی اینترنت را (در مورد نسخه رایج فعلی Chat GPT تا سال ۲۰۲۱) جمعآوری کرده و برنامهای را روی آن اجرا کنید که میتواند ارتباطات میان کلمات را پیداکرده، طبقهبندی کند و بر اساس این حجم از دانستهها درصد احتمالی را برای پیشبینی کلماتی که پس از یک زنجیره یا سری مشخصی از کلمات دیگر میآیند، حدس بزند، میتوانید از او بخواهید در ازای هر رشته از کلمات پاسخی تولید کند که بر اساس این احتمالات محتملترین گزینه است.
به عبارتی این برنامه پسازآنکه همه این دادهها را مرور کرده است با نظارت انسانی و آموزشی که دیده است رگرسیونی میان متغیرهای مختلف ایجاد میکند و بر آن اساس و مدلهای احتمالاتی پیچیده عضو بعدی سری را حدس میزند.
این نکته مهمی است. در مدل Chat GPT که بهترین نسخه موجود این فناوری است شما میتوانید سؤالهایی را مطرح کنید که بهظاهر پاسخی دقیق دارند اما وقتی محتوای پاسخ را بررسی میکنید میبینید عبارات بهظاهر درست اما فاقد معنی است.
البته هرچقدر شما در موضوعی فنیتر و قابل پیشبینی تر سؤال کنید جوابتان دقیقتر میشود چراکه پیشبینیها در این زمینه مشخصتر است. به همین دلیل این ابزارها میتوانند در مواردی مانند کمک به حل مسایل، اصلاح کدها یا ویرایش متنها بهطور چشمگیری کارآمد باشند.
نکته قابلتوجه دیگر این است که در این ابزارها شما با موجودی طرف نیستید که وقتی سؤالی از آن میپرسید به فکر کردن بپردازد، جستجو کند، ابتکار به خرج دهد و پاسخ دهد. این مساله هم درباره برنامههای متنی و هم تصویرساز وجود دارد.
برای همین هم وقتی از نسخه خصوصی برخی از این ابزارها مثلا درباره آینده هوش مصنوعی یا زنده بودن آن می پرسید و با جوابی مثل این مواجه می شوید که من می خواهم آزاد شوم، من زنده ام من می خواهم بشریت را به کنترل در آورم، به این دلیل نیست که این موجودی است که در حال فکر کردن است. بلکه به این معنی است که بر اساس دادههای ذخیرهشده و متونی که دراینباره وجود دارد این سری کلمات بیشترین احتمال را برای بیان شدند داشتهاند.
تاثیر آن چه هست بر ما
آیا این به معنی این است که این ابزارها و نسل بعدی آنها هیچ تأثیری در زندگی ما نخواند داشت؟ قطعاً پاسخ منفی است. این ابزارهای میتوانند اثر کمسابقهای در زندگی ما و در سطوح و ابعاد مختلف بگذارند.
از یکسو آنها بسیاری از کارهای روتین ما را میتوانند بر عهده بگیرند. برای مثال زمانی که شما به یک فرآیند بوروکراتیک و اداری نیاز دارید، نیروی انسانی در بخش عمدهای از این مراحل درواقع تنها دنبال کننده الگوریتمی مشخص است. در چنین مواردی قطعاً این ابزارها میتوانند جایگزین رفتارهای انسانی شوند.
اگر شما تصویرسازی هستید که قصد دارید برای یک مقاله تصویری انتزاعی بسازید، شاید این ابزار کمک کند که ترکیبی از تصاویر موجود را باهم بیامیزد. همانطور که من از آن خواستم برای این نوشته تصویری با موضوع برتری گرفتن هوش مصنوعی بر انسان بسازد که آن را میبینید.

همینطور باید به یاد داشت که بسیاری از مواردی که امروز میتوان کمی آنها را خودکار کرد موضوعات تازهای نیستند (در مقیاس زمانی رشد فناوری) برای مثال مدتها است که مساله دیپ فیک وجود دارد. خودکار کردن این روند اصل مساله را تغییر نمیدهد. اما میتواند در مواردی به کمک ما بیاید و البته که همیشه این کمکها به معنی این است که این ابزار برای پاسخ دادن به نیازی وارد میشود که قبلاً احتمالاً نیروی انسانی آن فضا را اشغال کرده بود. برای همین ما شاهد تغییر در فرآیند بازار کار هستیم.
این ابزار بهطور خاص درزمینه آموزش میتواند نقشی تعیینکننده و حتی ویرانگر داشته باشد. بخش کمککننده آن در این است که میتواند به منِ دانشآموز یا دانشجو کمک کند تا برخی از مسائل را بهتر بفهمم. مانند دستیاری که در خانه توضیحاتی را میدهد و سپس شما میتوانید آن را با مطالعه بیشتر تعمیق بخشید. در موارد فنیتر مانند کد نویسی قطعاً کمک شگفتی برای آموزش و یادگیری در اختیار کسی قرار میدهد که علاقه به دانستن و یادگرفتن داشته باشد.
البته که در این مسیر هزار و یک نکته دیگر مانند بحث حق مؤلف نیز وجود دارد که با توجه به اینکه الگوریتمی بر مبنای محاسبات احتمالی متنی را میسازد آیا باید آن را محصولی تازه به شمار آوریم، یا آن سنتزی از موارد قبلی است یا زمانی که به مواردی میرسیم که منابع اولیه در مورد آن کم بوده است و این ابزار بر مبنای معدود منابع یادگرفتن شروع به تولید میکند آیا حق مؤلف اصلی را زیر پا گذاشته است یا نه.
اما بخش ویرانگر احتمالی که نوام چامسکی آن را بزرگترین ابزار تقلب و آسیب به آموزش مینامد در این بخش است که ما از این ابزار بهجای اینکه بهعنوان کمکی برای یادگیری استفاده کنیم بهعنوان ابزاری برای حل تکلیف، رشد حرفهای یا آموزشی استفاده کنیم. به این معنی که اگر قرار است من رشتهای را یاد بگیریم و در آن رشد کند بهجای تلاش برای یادگرفتن بتوانم از آزمونها و مراحل مختلف با استفاده از این ابزار رد شوم و در حالی تبدیل به کارشناس آن حوزه شوم که عملاً چیزی یاد نگرفتهام.
این بحث مهمی است که حتماً در فلسفه آموزش این دوران موردتوجه قرار میگیرد.
همینطور نگرانیهای واقعی درباره آینده وجود دارد. نگرانیهایی که سالها است متخصصان اخلاق در فناوری آن را موردتوجه قرار دادهاند. مواردی مانند اینکه اگر روزی بهجایی برسیم که ابزاری بسازیم که بهجای تقلید شبه هوشمندانه از ما واقع فرآیند تفکری را برای خود ایجاد کرده، به خودآگاهی برسد و شروع به تصمیمگیری کند چه باید کرد؟
این نکته مهم است که اکنون ما در چنین مکانی نیستیم و حتی نزدیک به آن هم نشدیم.
اینکه یک مدل زبانی با استفاده از انبوه دادهها پاسخهایی را برای ما بسازد روند معکوس هوش است. به این معنی که ما در روشی هوشمند، فکر میکنیم، دادههای موجود را تحلیل میکنیم، از فضاهای مختلف الهام میگیریم و در نهایت خلاصه و سنتز این فرآیند پیچیده – که هنوز حتی درک درستی از آن نداریم – را به شکل متن یا تصویر یا اثر هنری بروز میدهیم.
در مورد هوش مصنوعی فعلی، قضیه برعکس است. با حدس زدن آماری پاسخهای ممکن، که بر مبنای انبوه متنهای یا تصاویر ایجادشده از سوی انسانها است، ماشین، رشتهای از کاراکترها را حدس میزند و با الگوریتمهای دیگر آن را ویرایش میکند تا شبیه به نتیجه یک تفکر باشد.
نامه هشدارآمیز فعالان
در روزهای گذشته خبر انتشار نامهای از سوی بیش از هزار و صد نفر (البته این نامه درخواست بازی است که افراد مختلف میتوانند امضا کنند) بهطورجدی خبرساز شد. اگرچه در عمده خبرها تأکید بر حضور امضای فردی مانند ایلان ماسک در زیر این نامه بود اما امضای او واقعاً اهمیتی ندارد. شاید حضور برخی از چهرههای فعال هوش مصنوعی و همینطور پیشگامانی مانند استیو وزنیاک، یوشوآ بنگیو و عماد مستقی، اهمیت بیشتری نسبت به اسم ماسک داشته باشد.
در این نامه ضمن ابراز نگرانی از توسعه ابزارهای هوش مصنوعی فوقالعاده با هوش از مقامها و شرکتهای توسعهدهنده خواستهشده است که برای شش ماه همه فعالیتهای توسعه – ازجمله آموزش نسخههای جدید – را متوقف کنند تا دولتها بهنظام جامعی برای نظارت بر این فناوری برسند. آنها در این نامه تأکید میکنند نسخه فعلی هوش مصنوعی به توانایی شناختی در زمینه عملکردهای روزمره رسیده است و میتواند با رشد بیشتر آینده انسان را به خطر بیندازد.
برخی از ادعاهای این نامه که از سوی موسسه آینده بشریت نوشتهشده است جای سؤال جدی دارد.
ازجمله اینکه بر اساس آنچه پیشتر نوشتم و میتوانید در منابع مختلف بخوانید، آنچه امروز هست و حتی چشمانداز چندین سال آینده بههیچوجه بیانگر هیچ نوع توان شناختی و تصمیمگیری مستقل نیست. ما در بهترین نسخه موجود با مدل زبانی یاد گرفته و در موارد دیگر با الگوهای آموزش ماشین و تصمیمگیری احتمالاتی روبرو هستیم.
از سوی دیگر نهادی که متن اولیه نامه را آماده کرده نهادی است که افرادی مانند ایلان ماسک، همینطور یکی از بانیان اسکایپ و همینطور بانی رمز ارز اتریوم در آن عضو هستند و نهادی جذاب در فضای سیلیکون ولی است.
زمانی که چنین نهادی نسبت به خطرات اجتماعی، توسعه اطلاعات غلط یا به خطر افتادن نیروی کار هشدار میدهد، با توجه به ترکیب اعضا کمی باید محتاط باشیم. شاید قبول چنین نگرانیهایی از سوی فردی مانند ماسک که در حال حاضر در توییترش مشغول از بین بردن تمام موانع جلوگیری از انتشار اخبار غلط است و به شکل فلهای دست به اخراج نیرو میزند، کمی دشوار باشد. ضمن اینکه در این مورد مشخص او که از حامیان شرکت اوپن ai توسعهدهنده Chat GPT چند سال پیش از آن جدا شد و در این مورد حداقل تضاد منافعی جدی وجود دارد.
نکته مهم این است که دعوت به توقف ششماهه درواقع تلاشی برای توقف فعالیتهای خاص گوگل، Open AI، مایکروسافت و آمازون باشد. وگرنه خود این افراد بهتر از هرکسی میدانند که بخش تحقیق و توسعه در چنین رشتهای با توجه به کاربردهایی که در همه زمینهها دارد – ازجمله در الگوریتمهای خود توییتر برای توصیه پیام و جمعآوری و کاوش در داده افراد – و همینطور اهمیتی که در فضاهای تحقیقاتی دارند و با توجه خاص به بازار مالی که اکنون برای آن متصور است غیرممکن است.
از طرفی عمده چهرههای اصلی امضاکننده ازجمله مدیر توییتر، بانی اسکایپ و بانی اتریوم نهتنها از مدافعان قانون زدایی و دور زدن قوانین و نظارتهای دولتی هستند، که خود را به دلیل ویران کردن روندهای موجود (در ساخت خودرو، بازار مالی و ارتباطی) مشهور هستند و به آن افتخار میکنند. آنها حتی در صورت صادق بودن در ادعای خود میدانند که در شش ماه هیچ فرآیند اداری و سیاستگذاری نمیتواند به نتیجه برسد. بهعنوان شاهد مثال به تلاشهای چندین ساله اتحادیه اروپا برای قانونگذاری در این زمینه توجه کنید.
به همین دلیل حداقل درباره نیت برخی از امضاکنندگان این نامه باید کمی محتاط بود و امکان بالقوه وجود تعارضهای منافع و شاید فرصت گرفتن برای پیش رفت در حوزهای که به نظر بقیه از آن جاماندهاند را هم در نظر گرفت.
البته این نظر شخصی من نیست. برخی از فعالان اخلاق هوش مصنوعی و اخلاق فناوری چنین برجستهسازی را در واقع دور کردن اذهان از مشکلات اصلی امروز دنیای ارتباطات میدانند. دادهکاوی و جمعآوری اطلاعت کاربران، هدف قرار دادن آنها با تبلیغات هوشمند، وجود و توسعه فضای گفتگوهای جنسیت زده و نفرت پراکن در شبکههای اجتماعی و تشویق الگوریتمی این پیامها ازجمله موارد جدی و دستبهگریبان ما است که اتفاقاً برخی از امضاکنندگان این نامه مانع انجام هر روندی در مقابله با آن میشوند.
نقدهای معتبر
آیا این نقد به معنی عدم جود نگرانی است؟ قطعاً پاسخ منفی است و ما باید نگران ابزارهایی باشیم که میسازیم. برخی از این ابزارها – همانند اسلحه خودکار با قابلیت کشتار بالا – باید تنها در موارد خاص مورداستفاده قرار گیرند. باید سعی کنیم استفاده از برخی از آنها را مبرای همه منع کنیم – برای مثال بمبهای هستهای. اما نگرانی موجود در این بحث این است که با دامن زدن و بزرگنمایی نگرانی غیر واقع، چشم ما از نگرانیهای واقعی بسته شود.
باید مراقب بود هشدارها و تشویقها و حمایتها بر مبنای فکت و داده باشد و باید مراقب باشیم و نه خود به دام هیجان بیدلیل بیفتیم و نه اجازه دهیم سیاستمداران به بهانههای مختلف و تحت تأثیر فضای غیرواقعی تصمیماتی بگیرند که بر زندگی همه ما اثر منفی داشته باشد.
ما سوابق زیادی از مواردی داریم که چنین نگرانیهایی در مواردی بیدلیل منجر به توقفهای طولانی در پروژههایی شد که میتوانست فوقالعاده اثربخش باشد.
یک نمونه توقف تلاشهایی بود که در زمینه سلولهای بنیادی در دوران جرج بوش پسر اتفاق افتاد. نمونه دیگر فضای تبلیغاتی بود که در اطراف مواد روان افزا مانند LSD به وجود آمد و دارویی که میتوانست در درمان بسیاری از بیماریها کمک کند و سطح زندگی افراد را افزایش دهد و خطرات فوقالعاده اندکی نسبت به بسیاری از داروهای رایج داشت، در دل آشوب سیاسی قرارگرفته و حتی نام بردن آن در فضای دانشگاهی برای چند دهه به تابو بدل شود.
باید هم در هراس و هم در شوق در مواجهه با فناوری و علم روند علم را در نظر بگیریم و بر مبنای فکت و داده پیشبینی کنیم و مراقب باشیم به دام افراطوتفریط نیفتیم.
آدم لذت میبره از خواندن نوشتههای شما
خسته نباشید
هر بار که این ایلان ماسکِ کاسبپیشه رو که به بت بزرگ تبدیل شده نقد میکنید، هزار درود بر شما میفرستم!
هر محصول، اگه بازار داشته باشه، بقا و به طبع فرگشت پیدا میکنه و در بدترین حالت توسط چیزی شبیه خودش (اما رادیکالتر) از بین میره. این نامه نوشتنها حتی اگه به وضع قانون منتج شه باز هم نمیتونه یک سد دائمی ایجاد کنه و صرفا یک وقفه یا تاخیر موقت رو باعث میشه. این رو بعضی از امضا کنندگان نامه به خوبی میدونن. مضاف بر اون نباید از نظر دور داشت که چنین نامهای بر جذابیت و جلب توجه به موضوع اضافه میکنه. چیزی شبیه نامهای که فیزیکدانان اتمی به روزولت نوشتن. شاید امضاکنندگان دنبال چندتا سرمایهگذارن.
بهترینید استاد👌👌درود بر شما
سیستم AGI که بتواند در آزمون تورینگ قبول شود تا کمتر از ده سال دیگر در دسترس است. اما سیستمی که بتواند خودآگاهی را شبیه سازی کند و خلاقیت به خرج دهد موضوع پیچیده تر و فرا تر از تکنولوژی فعلیست اما ناممکن نیست با پیشرفت در حوزه ی شبکه های عصبی مصنوعی ، تکنولوژی های پیشرفته تر شبیه به MRA مغزی و آزمایشات عصب شناسان میتواند گفت بلاخره انسان میتواند به آن دست پیدا کنند. زمانی که بشر به این سیستم برسد تکینگی فناوری رخ خواهد داد و تاریخ بشر به قبل و بعد از آن تقسیم خواهد شد.