هشدار علیه هوش مصنوعی: هراس یا توهم

با توسعه سریع و محبوبیت بالای یکی از ابزارهای هوش مصنوعی به نام Chat GPT در ماه‌های اخیر بر هشدارها درباره آینده هوش مصنوعی نیز افزوده‌شده است. نامه اخیر گروهی از چهره‌های فناوری یکی از آخرین نمونه‌ها است اما آیا این هشداری صادقانه است؟

فناوری‌های نوین زمانی که به مرزهای تغییر سبک زندگی می‌رسند با واکنشی دوگانه از سوی جامعه مواجه می‌شوند. چه جامعه متخصصان آن رشته و چه عموم مردم. معمولاً این مواجهه همراه با دوگانه‌ای از شیدایی و هراس است. از یک‌سو موج کاربران از امکان جدید استقبال می‌کنند و متخصصان سعی می‌کنند از ابزار و روش تازه در محصولات خود استفاده کنند. از سوی دیگر برخی از آینده نگران و متخصصان آن رشته درباره جوانب ناشناخته فناوری نو و ضرورت تمرکز بر مطالعه پیش زا توسعه بیشتر هشدار می‌دهند.

فرقی نمی‌کند این مساله ظهور اینترنت باشد یا ابزار ویرایش ژنی کریسپر – کَس ۹ یا هر چیز دیگر.

این روزها شاهد بازنمایی این رویکرد دوگانه درباره آن چیزی هستیم که به هوش مصنوعی معروف است.

این مورد اخیر اما تفاوت‌هایی با مواجه‌های قبلی ما دارد.
از یک‌سو ما – به‌عنوان بدنه غیرمتخصص جامعه – دارای پیش‌فرض غیردقیقی از موضوع بحث هستیم. هوش مصنوعی برای من و شما احتمالاً بیان‌گر تصویری است که از آینده در ادبیات علمی تخیلی یا آثار آینده نگران دیده‌ایم.

جایی که هوش مصنوعی که به معنی دقیق کلمه بازساخته هوش انسانی در ماشین است به مرز خودآگاهی می‌رسد و می‌تواند فراتر از تأثیر بر زندگی ما، مهار آن را به دست گیرد و به‌جای ما تصمیم‌گیری کرده و حتی دست به اقدام بزند.

داستان‌های هشدارآمیزی چون اسکای نت ترمیناتور نمونه‌های شاخصی از این هراس را به تصویر کشیده‌اند.

حالا ما با پدیده‌ای مواجه هستیم که به نظر می‌رسد در گفتگو با ما می‌تواند مانند هم‌رده‌ای و همسانی چون ما واکنش نشان دهد.

یکی از آزمون‌های قدیمی هوش مصنوعی آزمونی است که به نام آزمون تورینگ. به‌طور خلاصه این آزمون بیان می‌دارد اگر شما از پشت دیواری با موجودی به سخن بنشینید و نتوانید تشخیص دهید که آیا با انسان صحبت می‌کنید یا ماشین، در این صورت هوش مصنوعی شما از پس‌آزمون تورینگ برآمده است و واقعاً می‌توان نام هوش مصنوعی را بر آن گذاشت.

برای بسیاری از ما در مواجهه روزمره و ساده با ابزاری مانند Chat GPT به نظر می‌رسد که این ابزار از این آزمون سربلند بیرون می‌آید. اما واقعیت با این تجربه متفاوت است و کافی است کمی با آن سروکله بزنید تا خودش را بر شما آشکار کند.

پیش از اینکه نگران یا هیجان‌زده شویم بد نیست قدمی عقب بگذاریم و از دور صحنه را ببینیم.

آیا هوش مصنوعی واقعا هوش مصنوعی است؟

نسخه‌های رایج و امروزی معروف هوش مصنوعی ازجمله Chat GPT و محصولات مشابه معرفی‌شده از سوی گوگل و مایکروسافت، به‌هیچ‌وجه هوش مصنوعی – به معنی که من و شما در ذهن داریم نیستند.

در مورد معروف Chat GPT ما با یک ابزار هوشمند سروکار نداریم که به معنی انسانی فکر کند، آگاه باشد یا حتی نسبت به محتوایی که تولید می‌کند آگاهی داشته باشد.

کاری که این ابزارها انجام می‌دهند استفاده از مدل‌های زبانی هستند.

به این معنی که با استفاده از روش‌های متفاوتی از شبکه‌های عصبی گرفته تا یادگیری ماشین و بر اساس آموزشی که دیده‌اند، روابط مشخصی را میان کلمات پیدا می‌کنند. شما وقتی تمام حجم داده‌های مکتوب موجود روی اینترنت را (در مورد نسخه رایج فعلی Chat GPT  تا سال ۲۰۲۱) جمع‌آوری کرده و برنامه‌ای را روی آن اجرا کنید که می‌تواند ارتباطات میان کلمات را پیداکرده، طبقه‌بندی کند و بر اساس این حجم از دانسته‌ها درصد احتمالی را برای پیش‌بینی کلماتی که پس از یک زنجیره یا سری مشخصی از کلمات دیگر می‌آیند، حدس بزند، می‌توانید از او بخواهید در ازای هر رشته از کلمات پاسخی تولید کند که بر اساس این احتمالات محتمل‌ترین گزینه است.

به عبارتی این برنامه پس‌ازآنکه همه این داده‌ها را مرور کرده است با نظارت انسانی و آموزشی که دیده است رگرسیونی میان متغیرهای مختلف ایجاد می‌کند و بر آن اساس و مدل‌های احتمالاتی پیچیده عضو بعدی سری را حدس می‌زند.

این نکته مهمی است. در مدل Chat GPT  که بهترین نسخه موجود این فناوری است شما می‌توانید سؤال‌هایی را مطرح کنید که به‌ظاهر پاسخی دقیق دارند اما وقتی محتوای پاسخ را بررسی می‌کنید می‌بینید عبارات به‌ظاهر درست اما فاقد معنی است.

البته هرچقدر شما در موضوعی فنی‌تر و قابل پیش‌بینی تر سؤال کنید جوابتان دقیق‌تر می‌شود چراکه پیش‌بینی‌ها در این زمینه مشخص‌تر است. به همین دلیل این ابزارها می‌توانند در مواردی مانند کمک به حل مسایل، اصلاح کدها یا ویرایش متن‌ها به‌طور چشمگیری کارآمد باشند.

نکته قابل‌توجه دیگر این است که در این ابزارها شما با موجودی طرف نیستید که وقتی سؤالی از آن می‌پرسید به فکر کردن بپردازد، جستجو کند، ابتکار به خرج دهد و پاسخ دهد. این مساله هم درباره برنامه‌های متنی و هم تصویرساز وجود دارد.

برای همین هم وقتی از نسخه خصوصی برخی از این ابزارها مثلا درباره آینده هوش مصنوعی یا زنده بودن آن می پرسید و با جوابی مثل این مواجه می شوید که من می خواهم آزاد شوم، من زنده ام من می خواهم بشریت را به کنترل در آورم، به این دلیل نیست که این موجودی است که در حال فکر کردن است. بلکه به این معنی است که بر اساس داده‌های ذخیره‌شده و متونی که دراین‌باره وجود دارد این سری کلمات بیشترین احتمال را برای بیان شدند داشته‌اند.

تاثیر آن چه هست بر ما

آیا این به معنی این است که این ابزارها و نسل بعدی آن‌ها هیچ تأثیری در زندگی ما نخواند داشت؟ قطعاً پاسخ منفی است. این ابزارهای می‌توانند اثر کم‌سابقه‌ای در زندگی ما و در سطوح و ابعاد مختلف بگذارند.

از یک‌سو آن‌ها بسیاری از کاره‌ای روتین ما را می‌توانند بر عهده بگیرند. برای مثال زمانی که شما به یک فرآیند بوروکراتیک و اداری نیاز دارید، نیروی انسانی در بخش عمده‌ای از این مراحل درواقع تنها دنبال کننده الگوریتمی مشخص است. در چنین مواردی قطعاً این ابزارها می‌توانند جایگزین رفتارهای انسانی شوند.

اگر شما تصویرسازی هستید که قصد دارید برای یک مقاله تصویری انتزاعی بسازید، شاید این ابزار کمک کند که ترکیبی از تصاویر موجود را باهم بیامیزد. همان‌طور که من از آن خواستم برای این نوشته تصویری با موضوع برتری گرفتن هوش مصنوعی بر انسان بسازد که آن را می‌بینید.

تصویر تولید شده با یکی از ابزارهای هوش مصنوعی برای این نوشته.

همین‌طور باید به یاد داشت که بسیاری از مواردی که امروز می‌توان کمی آن‌ها را خودکار کرد موضوعات تازه‌ای نیستند (در مقیاس زمانی رشد فناوری) برای مثال مدت‌ها است که مساله دیپ فیک وجود دارد. خودکار کردن این روند اصل مساله را تغییر نمی‌دهد. اما می‌تواند در مواردی به کمک ما بیاید و البته که همیشه این کمک‌ها به معنی این است که این ابزار برای پاسخ دادن به نیازی وارد می‌شود که قبلاً احتمالاً نیروی انسانی آن فضا را اشغال کرده بود. برای همین ما شاهد تغییر در فرآیند بازار کار هستیم.

این ابزار به‌طور خاص درزمینه آموزش می‌تواند نقشی تعیین‌کننده و حتی ویرانگر داشته باشد. بخش کمک‌کننده آن در این است که می‌تواند به منِ دانش‌آموز یا دانشجو کمک کند تا برخی از مسائل را بهتر بفهمم. مانند دستیاری که در خانه توضیحاتی را می‌دهد و سپس شما می‌توانید آن را با مطالعه بیشتر تعمیق بخشید. در موارد فنی‌تر مانند کد نویسی قطعاً کمک شگفتی برای آموزش و یادگیری در اختیار کسی قرار می‌دهد که علاقه به دانستن و یادگرفتن داشته باشد.

البته که در این مسیر هزار و یک نکته دیگر مانند بحث حق مؤلف نیز وجود دارد که با توجه به اینکه الگوریتمی بر مبنای محاسبات احتمالی متنی را می‌سازد آیا باید آن را محصولی تازه به شمار آوریم، یا آن سنتزی از موارد قبلی است یا زمانی که به مواردی می‌رسیم که منابع اولیه در مورد آن کم بوده است و این ابزار بر مبنای معدود منابع یادگرفتن شروع به تولید می‌کند آیا حق مؤلف اصلی را زیر پا گذاشته است یا نه.

اما بخش ویرانگر احتمالی که نوام چامسکی آن را بزرگ‌ترین ابزار تقلب و آسیب به آموزش می‌نامد در این بخش است که ما از این ابزار به‌جای اینکه به‌عنوان کمکی برای یادگیری استفاده کنیم به‌عنوان ابزاری برای حل تکلیف، رشد حرفه‌ای یا آموزشی استفاده کنیم. به این معنی که اگر قرار است من رشته‌ای را یاد بگیریم و در آن رشد کند به‌جای تلاش برای یادگرفتن بتوانم از آزمون‌ها و مراحل مختلف با استفاده از این ابزار رد شوم و در حالی تبدیل به کارشناس آن حوزه شوم که عملاً چیزی یاد نگرفته‌ام.

این بحث مهمی است که حتماً در فلسفه آموزش این دوران موردتوجه قرار می‌گیرد.

همین‌طور نگرانی‌های واقعی درباره آینده وجود دارد. نگرانی‌هایی که سال‌ها است متخصصان اخلاق در فناوری آن را موردتوجه قرار داده‌اند. مواردی مانند اینکه اگر روزی به‌جایی برسیم که ابزاری بسازیم که به‌جای تقلید شبه هوشمندانه از ما واقع فرآیند تفکری را برای خود ایجاد کرده، به خودآگاهی برسد و شروع به تصمیم‌گیری کند چه باید کرد؟

این نکته مهم است که اکنون ما در چنین مکانی نیستیم و حتی نزدیک به آن هم نشدیم.

اینکه یک مدل زبانی با استفاده از انبوه داده‌ها پاسخ‌هایی را برای ما بسازد روند معکوس هوش است. به این معنی که ما در روشی هوشمند، فکر می‌کنیم، داده‌های موجود را تحلیل می‌کنیم، از فضاهای مختلف الهام می‌گیریم و در نهایت خلاصه و سنتز این فرآیند پیچیده – که هنوز حتی درک درستی از آن نداریم – را به شکل متن یا تصویر یا اثر هنری بروز می‌دهیم.

در مورد هوش مصنوعی فعلی، قضیه برعکس است. با حدس زدن آماری پاسخ‌های ممکن، که بر مبنای انبوه متن‌های یا تصاویر ایجادشده از سوی انسان‌ها است، ماشین، رشته‌ای از کاراکترها را حدس می‌زند و با الگوریتم‌های دیگر آن را ویرایش می‌کند تا شبیه به نتیجه یک تفکر باشد.

نامه هشدارآمیز فعالان

در روزهای گذشته خبر انتشار نامه‌ای از سوی بیش از هزار و صد نفر (البته این نامه درخواست بازی است که افراد مختلف می‌توانند امضا کنند) به‌طورجدی خبرساز شد. اگرچه در عمده خبرها تأکید بر حضور امضای فردی مانند ایلان ماسک در زیر این نامه بود اما امضای او واقعاً اهمیتی ندارد. شاید حضور برخی از چهره‌های فعال هوش مصنوعی و همین‌طور پیشگامانی مانند استیو وزنیاک، یوشوآ بنگیو و عماد  مستقی، اهمیت بیشتری نسبت به اسم ماسک داشته باشد.

در این نامه ضمن ابراز نگرانی از توسعه ابزارهای هوش مصنوعی فوق‌العاده با هوش از مقام‌ها و شرکت‌های توسعه‌دهنده خواسته‌شده است که برای شش ماه همه فعالیت‌های توسعه – ازجمله آموزش نسخه‌های جدید – را متوقف کنند تا دولت‌ها به‌نظام جامعی برای نظارت بر این فناوری برسند. آن‌ها در این نامه تأکید می‌کنند نسخه فعلی هوش مصنوعی به توانایی شناختی در زمینه عملکردهای روزمره رسیده است و می‌تواند با رشد بیشتر آینده انسان را به خطر بیندازد.

برخی از ادعاهای این نامه که از سوی موسسه آینده بشریت نوشته‌شده است جای سؤال جدی دارد.

ازجمله اینکه بر اساس آنچه پیش‌تر نوشتم و می‌توانید در منابع مختلف بخوانید، آنچه امروز هست و حتی چشم‌انداز چندین سال آینده به‌هیچ‌وجه بیانگر هیچ نوع توان شناختی و تصمیم‌گیری مستقل نیست. ما در بهترین نسخه موجود با مدل زبانی یاد گرفته و در موارد دیگر با الگوهای آموزش ماشین و تصمیم‌گیری احتمالاتی روبرو هستیم.

از سوی دیگر نهادی که متن اولیه نامه را آماده کرده نهادی است که افرادی مانند ایلان ماسک، همین‌طور یکی از بانیان اسکایپ و همین‌طور بانی رمز ارز‌ اتریوم در آن عضو هستند و نهادی جذاب در فضای سیلیکون ولی است.

زمانی که چنین نهادی نسبت به خطرات اجتماعی، توسعه اطلاعات غلط یا به خطر افتادن نیروی کار هشدار می‌دهد، با توجه به ترکیب اعضا کمی باید محتاط باشیم. شاید قبول چنین نگرانی‌هایی از سوی فردی مانند ماسک که در حال حاضر در توییترش مشغول از بین بردن تمام موانع جلوگیری از انتشار اخبار غلط است و به شکل فله‌ای دست به اخراج نیرو می‌زند، کمی دشوار باشد. ضمن اینکه در این مورد مشخص او که از حامیان شرکت اوپن ai  توسعه‌دهنده Chat GPT  چند سال پیش از آن جدا شد و در این مورد حداقل تضاد منافعی جدی وجود دارد.

نکته مهم این است که دعوت به توقف شش‌ماهه درواقع تلاشی برای توقف فعالیت‌های خاص گوگل، Open AI، مایکروسافت و آمازون باشد. وگرنه خود این افراد بهتر از هرکسی می‌دانند که بخش تحقیق و توسعه در چنین رشته‌ای با توجه به کاربردهایی که در همه زمینه‌ها دارد – ازجمله در الگوریتم‌های خود توییتر برای توصیه پیام و جمع‌آوری و کاوش در داده افراد – و همین‌طور اهمیتی که در فضاهای تحقیقاتی دارند و با توجه خاص به بازار مالی که اکنون برای آن متصور است غیرممکن است.

از طرفی عمده چهره‌های اصلی امضاکننده ازجمله مدیر توییتر، بانی اسکایپ و بانی اتریوم نه‌تنها از مدافعان قانون زدا‌یی و دور زدن قوانین و نظارت‌های دولتی هستند، که خود را به دلیل ویران کردن روندهای موجود (در ساخت خودرو، بازار مالی و ارتباطی) مشهور هستند و به آن افتخار می‌کنند. آن‌ها حتی در صورت صادق بودن در ادعای خود می‌دانند که در شش ماه هیچ فرآیند اداری و سیاست‌گذاری نمی‌تواند به نتیجه برسد. به‌عنوان شاهد مثال به تلاش‌های چندین ساله اتحادیه اروپا برای قانون‌گذاری در این زمینه توجه کنید.

به همین دلیل حداقل درباره نیت برخی از امضاکنندگان این نامه باید کمی محتاط بود و امکان بالقوه وجود تعارض‌های منافع و شاید فرصت گرفتن برای پیش رفت در حوزه‌ای که به نظر بقیه از آن جامانده‌اند را هم در نظر گرفت.

البته این نظر شخصی من نیست. برخی از فعالان اخلاق هوش مصنوعی و اخلاق فناوری چنین برجسته‌سازی را در واقع دور کردن اذهان از مشکلات اصلی امروز دنیای ارتباطات می‌دانند. داده‌کاوی و جمع‌آوری اطلاعت کاربران، هدف قرار دادن آن‌ها با تبلیغات هوشمند، وجود و توسعه فضای گفتگوهای جنسیت زده و نفرت پراکن در شبکه‌های اجتماعی و تشویق الگوریتمی این پیام‌ها ازجمله موارد جدی و دست‌به‌گریبان ما است که اتفاقاً برخی از امضاکنندگان این نامه مانع انجام هر روندی در مقابله با آن می‌شوند.

نقدهای معتبر

آیا این نقد به معنی عدم جود نگرانی است؟ قطعاً پاسخ منفی است و ما باید نگران ابزارهایی باشیم که می‌سازیم. برخی از این ابزارها – همانند اسلحه خودکار با قابلیت کشتار بالا – باید تنها در موارد خاص مورداستفاده قرار گیرند. باید سعی کنیم استفاده از برخی از آن‌ها را مبرای همه منع کنیم – برای مثال بمب‌های هسته‌ای. اما نگرانی موجود در این بحث این است که با دامن زدن و بزرگ‌نمایی نگرانی غیر واقع، چشم ما از نگرانی‌های واقعی بسته شود.

باید مراقب بود هشدارها و تشویق‌ها و حمایت‌ها بر مبنای فکت و داده باشد و باید مراقب باشیم و نه خود به دام هیجان بی‌دلیل بیفتیم و نه اجازه دهیم سیاستمداران به بهانه‌های مختلف و تحت تأثیر فضای غیرواقعی تصمیماتی بگیرند که بر زندگی همه ما اثر منفی داشته باشد.

ما سوابق زیادی از مواردی داریم که چنین نگرانی‌هایی در مواردی بی‌دلیل منجر به توقف‌های طولانی در پروژه‌هایی شد که می‌توانست فوق‌العاده اثربخش باشد.

یک نمونه توقف تلاش‌هایی بود که در زمینه سلول‌های بنیادی در دوران جرج بوش پسر اتفاق افتاد. نمونه دیگر فضای تبلیغاتی بود که در اطراف مواد روان افزا مانند LSD به وجود آمد و دارویی که می‌توانست در درمان بسیاری از بیماری‌ها کمک کند و سطح زندگی افراد را افزایش دهد و خطرات فوق‌العاده اندکی نسبت به بسیاری از داروهای رایج داشت، در دل آشوب سیاسی قرارگرفته و حتی نام بردن آن در فضای دانشگاهی برای چند دهه به تابو بدل شود.

باید هم در هراس و هم در شوق در مواجهه با فناوری و علم روند علم را در نظر بگیریم و بر مبنای فکت و داده پیش‌بینی کنیم و مراقب باشیم به دام افراط‌وتفریط نیفتیم.

دیدگاه‌ها

  1. هر بار که این ایلان ماسکِ کاسب‌پیشه رو که به بت بزرگ تبدیل شده نقد می‌کنید، هزار درود بر شما می‌فرستم!

  2. هر محصول، اگه بازار داشته باشه، بقا و به طبع فرگشت پیدا می‌کنه و در بدترین حالت توسط چیزی شبیه خودش (اما رادیکال‌تر) از بین می‌ره. این نامه نوشتن‌ها حتی اگه به وضع قانون منتج شه باز هم نمی‌تونه یک سد دائمی ایجاد کنه و صرفا یک وقفه یا تاخیر موقت رو باعث میشه. این رو بعضی از امضا کنندگان نامه به خوبی می‌دونن. مضاف بر اون نباید از نظر دور داشت که چنین نامه‌ای بر جذابیت و جلب توجه به موضوع اضافه می‌کنه. چیزی شبیه نامه‌ای که فیزیکدانان اتمی به روزولت نوشتن. شاید امضاکنندگان دنبال چندتا سرمایه‌گذارن.

  3. سیستم AGI که بتواند در آزمون تورینگ قبول شود تا کمتر از ده سال دیگر در دسترس است. اما سیستمی که بتواند خودآگاهی را شبیه سازی کند و خلاقیت به خرج دهد موضوع پیچیده تر و فرا تر از تکنولوژی فعلیست اما ناممکن نیست با پیشرفت در حوزه ی شبکه های عصبی مصنوعی ، تکنولوژی های پیشرفته تر شبیه به MRA مغزی و آزمایشات عصب شناسان میتواند گفت بلاخره انسان میتواند به آن دست پیدا کنند. زمانی که بشر به این سیستم برسد تکینگی فناوری رخ خواهد داد و تاریخ بشر به قبل و بعد از آن تقسیم خواهد شد.

دیدگاهتان را بنویسید

*

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.