شیطان، فرشته یا شاید هم شبیه به انسان

California, USA --- Brain under layers of circuit boards --- Image by © John Lund/Blend Images/Corbis
California, USA — Brain under layers of circuit boards — Image by © John Lund/Blend Images/Corbis

هوش مصنوعی مدتها است که در اطراف ما وجود دارد و در همین روزهایی که ما نفس می کشیم در حال رشد و توسعه است. اما وقتی به هوش مصنوعی کامل اشاره می شود معمولا نگاهی به آینده داریم. زمانی که ساختارهای هوش مصنوعی به اندازه ای توسعه یابند که الگوریتم های آموزش و خود آموز در آنها بهبود یافته باشند، آن ها بتوانند نه تنها بر اساس پارامترهای محیط که بر اساس تجربه گذشته و مقایسه رفتارها و پیشینه آنها دست به انتخاب عملکرد بزنند.

هوش مصننوعی که بر اساس مشاهدات خود تجربه می آموزد و بر اساس داده های خود و ارزیابی شرایط واکنش مناسبی نشان می دهد. اگر از بحث های فلسفی بگذریم و فرض کنیم چنین ساختاری بتواند در نهایت خود رشد کند و همچنین توان محاسباتی ابزارهای ما به اندازه لازم توسعه یابد، چنین موجودیتی شاید به نوعی خودآگاهی دست یابد. شاید بتواند نسبت میان خود و دیگری را درک کند و از آن مهم تر مانند هر موجودیت دیگری برای حفظ موجودیتش تلاش کند.

چنین چشم اندازی از هوش مصنوعی همزمان شوق آفرین و وحشت زا است. هوشمند شدن سیستم های غیر جاندار می تواند آنچنان انقلابی در نحوه زیست ما ایجاد کند که تا کنون تجربه آن را نداشته ایم. آنچه امروز می بینیم در مقایسه با آن دوران طلایی می تواند تنها چشیدن قطره ای از دریای امکانات پیش رو باشد. اما در همین حال این هوشمند شدن ابزارهایی که معمولا درون ساختراهای شبکه ماند قرار می گیرند همیشه نگران کننده است. قدیمی ترین کابوس های ما از هوش مصنوعی به این بخش ماجرا اشاره داشته است. زمانی که ماشین هوشمند تصمیم به شورش علیه انسان بزند. قیام بردگان هوشمند که مرزی برای رشد و توسعه خود ندارند و دربرابر این سوال که چرا باید اسیر برده داران ضعیف تر خود بمانند، جوابی منطقی پیدا نمی کنند.

در دنیای علمی تخیلی شاید یکی از کلاسیک ترین بروزهای نگرانی درباره قیام ماشین علیه انسان را در داستان و فیلم شکوهمند ۲۰۰۱، یک اودیسه فضایی می بینیم. جایی که ابر راینه ای هوشمند به نام هال (HAL) دربرابر خدمه انسانی قیام می کند تا بتواند ماموریت را به انجام براند. به عبارتی او بقای ماموریت را در حذف عامل انسانی می بیند.

در دنیایی مانند ترمیناتور ها این بار شبکه هوشمند اسکای نت، برای حفظ صلح جهانی تنها یک عامل مزاحم می بیند که انسان ها هستند و برای همین است که روز واقعه را ترتیب می دهد تا این عاملان مزاحم را نابود کند.  چنین ایده ای بارها و بارها تکرار می شود و در داستانی مانند انتقام جویان: عصر اولتران آخرین روایت سینمایی آن را می بینیم.

در دنیایی مانند ماتریس ماشین باردیگر انسان را موجودی خارج از رده می بینید که ویروس وار در حال تغذیه از زمین و نابودی آن است و تصمیم به طغیان می گیرد و در نهایت انسان خواب زده را تنها برای استفاده از انرژی اش زنده نگاه می دارد. در داستانی مانند رزم‌ناو گالاکتیکا، روبات های هوشمند شده انسان نما نیز دلیلی –حداقل در ابتدا – برای همدلی با خالقان پیر و فرتوت و ضعیف خود نمی بینند.

از سوی دیگر تلاش های زیادی برای مهار این روند نیز در این دنیای آینده نگرانه صورت گرفته است. از قوانین سه گانه آسیموف گرفته تا  شیوه های پلیسی.

اما آیا چنین نگرانی هایی درباره آِنده هوش مصنوعی درست است؟ آیا واقعا ضرورتی برای نوعی نگرانی درباره آینده این روند وجود دارد؟

به نظر می آید جواب مثبت باشد اما قبل از پرداختن به آن توضیح یک نکته فوق العاده ضروری است.

در مقابل رشد فناوری و به خصوص رشد فناوری های مرتبط به دنیای دیجیتال که هوش مصنوعی را نیز شامل می شود، دو نوع نگرانی وجود دارد که شاید بتوان هر دو را در زیر مجموعه نوعی از فناوری هراسی قرار داد اما ماهیتا با هم تفاوت دارند.

یک نوع نگرانی به دلیل امکاناتی است که چنین دنیایی فراهم می آورد. دسترسی هایی که تا قبل از آن امکان پذیر نبوده است، فرصت های بیشتر که به نقض انحصارهای مختلف منجر می شود و به طور ضمنی فرصت سو استفاده هایی را همراه دارد.  ما باهرا شامل چنین نوع هراسی بوده ایم هر بار فناوری جدید مطرح شده است از ماهواره و ویدیو گرفته تا شبکه های اجتماعی و اینترنت و … در گوشه و کنار جهان بحث ها بر سر ضرورت کنترل آن خطرات آن و آثار منفی آن هم درگرفته است.

خاطرم هست تا چند سال پیش روزنامه های ما به والدین توصیه می کردند که برای فرزندانشان گوشی هایی نخرند که به فناوری بولتوث مجهز باشد و در تایید خود دهها مثال می آوردند که فیلمی که از طریق بلوتوث منتقل شده بنیان فلان خانواده را بر باد داده است.

حتی بارها شاهد تیترهایی مانند این بودیم که بلوتوث های شیطانی چه کردند. این رفتار ها و واکنش ها و نگرانی ها، عمدتا تعمیم مساله و موردی خاص به کلیت یک داستان و استفاده از آن برای به عقب راندن یک فناوری هستند. زمانی که ویدیو ها به بازار آمد طبیعتا امکان تماشای فیلم های نامناسب برای گروه های سنی مختلف آسان تر شد. اما این خطر فناوری ویدیو نبود این ناشی از سست بودن سیستم آموزشی و فرهنگی خود ما در خانواده هایمان بود.  اینترنت می تواند بسیتری برای جاسوسی یا انتقال داده های هرزه نگاری باشد اما در عین حال دروازه ما برای زیستن آگاهانه در جهان امروز است. این نگرانی که به بهانه آن کاربرد خاص کلیت فناوری را تعطیل کنیم، مانند جمع کردن هر ابزار برنده ای به این بهانه است که چند قاتل هم از ابزاری مانند چاقو برای کشتن دیگری استفاده کرده اند.

چنین نگرانی هایی واقعی نیست یا ناشی از نشناختن امکانات و ضرورت های زیستن در دنیای مدرن است و یا هراس از آشکار شدگی ها و گشودگی هایی  که همراه چنین فناوری هایی می آید و نگران از دست دادن آرامش جاهلانه دوران پیش از اطلاعات.

این نوع از تکنوفوبیا هیچ جایگاهی در بحثی که درباره نگرانی ها از هوش مصنوعی می شود ندارد و در واقع چنین نگرانی ها تنها باعث می شود آن نگرانی های معقول و منطقی و قبال توجه در سایه قرار گیرد.

هوش مصنوعی – در صورت رسیدن به آن نقطه ایده آل و البته در طول این مسیر – برای ما امکانات بی نظیری به همراه خواهد آورد. شهری را تصور کنید که ساختراهیا کنترل آن به سامانه هوش مصنوعی وصل شده باشد که موثر تر از امروز بتواند با تنظیم چراغ های راهنمایی، روشنایی شهر، جریان فاضلاب ها، آبیاری درختان، اعلام هشدار به پلیس و آتشنشانی و تیم پزشکی در صورت بروز حادثه و همچنین اعلام هشدار رویدادهای بالقوه خطرناک به ساختمان های مسکونی، ما را امن تر و زندگی را روان تر می کند. حتی در مقیاسی کوچکتر و نزدکی تر به امروز ما به خانه های هوشمندی فکر کنید که سایستمی مرکزی به طور دایم در حال عیب یابی و تعمیر مشکلات خانه است، در صورت دریافت هشدار صاعقه و یا باران تنظیمات ایمنی خانهر ا  تغییر یم دهد دما را کنترل کرده و نظافت را انجام می دهد و حتی بر محتوای یخچال شما با توجه به فهرست میهمان هایی که خواهید داشت نظارت دارد تا مبادا غافلگیر شوید.

سیستم عامل رایانه ای مبتنی بر ساختار ابری و شبکه ای را در نظر بگیرید که بتواند نیازهای شما را حدس بزند، روحیات شما را تشخیص بدهد و بدون دخالت های مکرر تعامل شما با دنیای مجازی را سامان دهد.

همه این ها پیش پا اتفاده ترین نمونه ها از سیتم های هوش مصنوعی هستند که هم اکنون تا نقاط عطف مناسبی پیشرفت کرده اند.

اما از سوی دیگر نگرانی های جدی تری درباره نوع پیشرفته تری از هوش مصنوعی وجود دارد. زمانی که این موجودیت بتواند تصمیم گیری خود را بدون نیاز به دستورات بیرونی و بر مبنای اولویت ها و تشخیص ها و تجربه ها انجام دهد و البته مهم تر از همه زمانی است که این سیستم های هوشمند به بخش نظامی و تسلیحاتی متصل باشند.

چنین موضوعی است که نگرانی های جدی را به همراه دارد.

همین چند هفته پیش جمع کثیری از متفکران، پیشگامان فناوری و دانشمندان در نامه ای سرگشاده خواستار نظارت بر روند هوشمند سازی تسلیحاتی شدند.

دربین کسانی که این نامه را امضا کرده اند می توانید نام هایی چون نوام چامسکی (فیلسوف و متخصص علوم شناختی) ، استیو وزنیاک (یکی زا بنیانگذارن شرکت اپل)، ایلان ماسک (فناور آینده نگر و صاحب شرکتهای تسلا موتور و اسپیس ایکس) و استفان هاوکینگ (کیهان شناس برجسته معاصر) را پیدا کنید. تنها صفتی که به این افراد نمی چسید فناوری هراس است و با این وجود آننها با جدیت فراوان نسبت به آینده چنین کاربردهایی در هوش مصنوعی – و البته با تاکید چندباره بر ضرورت توسعه تحقیقات در زمینه های مناسب – هشدا رمی دهند. تمرکز هشدار آن ها بر توسعه سیستم های مبتنی بر هوش مصنوع در سیستم های تسلیحاتی خودکار است. آنها در این نامه تاکید می کنند:

«تسلیحات خودکار اهداف خود را بدون دخالت انسان انتخاب کرده و به آن واکنش نشان می دهد. چنین ابزارهایی ممکن است پهبادهای ۴ پره ای را شامل شود که به دنبال اهداف مشخصی می گردند و بر اساس ویژگی های از پیش تعیین شده آنها را ازبین می برند اما این حوزه شامل موشک های دوربرد و پهبادهایی که با کمک خلبان از راه دور کنترل می شوند نمی شود. امروز هوش مصنوعی به مرحله ای رسیده است که ساخت و عملیاتی کردن چنان سیستم هایی دربازه زمانی چند سال آینده و نه چند دهه آینده  – اگرنه ااز نظر حقوق اما از نظر عملی – ممکن است. چشم اندازهای چنین جنگ افزارهایی چنان وسیع است که از آن به سومین انقلاب جنگ افزارهای پس از کشف باروت و بمبم اتم یاد می کنند…»

نویسندگان در ادامه به خطرات چنین مسیری اشاره می کنند و با تاکید بر اینکه اگرچه نیت بسیاری از دانشمندان حوزه هوش مصنوعی ساخت سلاح نیست اما ممکن سا از کارهای آنها سو استفاده شود رد نهایت نتیجه گری می کنند:

«به طور خلاصه، ما معتقدیم هوش مصنوعی مزایای بالقوه بالایی برای بشریت و در حوزه های مختلف دارد و همین هم باید هدف این حوزه تحقیقاتی باشد. آغاز مسابقه تسلیحاتی سلاح های مبتنی بر هوش مصنوعی فکر بدی است و باید جلوی آن با ممنوعیت ساخت تسلیحات خودکار در فراسوی نقطه ای که انسان بر عملکرد آنها کنترل دارد گرفته شود»

چنین نگرانی جدی و واقعی است و باید به آن توجه کرد.  این هشداری است که اگر آن را نشنویم شاید روزی داستانی شبیه به صحنه های هراسناک فیلم های علمی تخیلی برای ما تکرار شود.

اما فراموش نکنیم در همه آن داستان ها اگرچه عامل ویرانی و مصیبت هوش مصنوعی بوده است آنچه ماشه آن رفتارها را چکاند انسان ها بودند. در ۲۰۰۱ اودیسه فضایی دروغ گویی و پنهان کاری بود – همانطور که کلارک در کتاب ۲۰۱۰ توضیح می دهد – که هال دچار خطای تصمیم شد و چه در ترمیناتور و چه در ماتریس و چه در سابقا ماشین، این انسان بود که با رفتارهای ابلهانه و نگاه های کوتاه بینانه خود قیام ماشین را رقم زد. شاید وقتی به احتمال طغیان ماشین علیه انسان فکر می کنیم به نقش انسان در این بین نیز بیندیشیم که چگونه سقوط اخلاقی اش مکانیسم چنان قیامی را فعال می کند.

 

این یادداشت باز نشری از مطلبی است که در دانستنیها منتشر شده است

دیدگاه‌ها

  1. به نظرم یکی دیگر از جنبه‌هایی که در کنار و در ترکیب با هوش مصنوعی، آینده شگفت انگیزی را وعده می‌دهد بحث تکامل سایبورگ است. شمایی از آن در مجموعه ژاپنی Ghost in the shell دیده می‌شود.

    1. اخیرا نسخه سینمایی هالیوودی آن هم گویا در دستور کار قرار گرفته است امیدوارم به خوبی نسخه ژاپنی و اصل انیمه باشد

پاسخی بگذارید

*

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.