چین به‌دنبال مهار «هوش مصنوعی انسان‌نما»

 الزام به اعلام هویت ربات، بازبینی امنیتی و تبعیت ایدئولوژیک

پکن در حالی چارچوبی سخت‌گیرانه برای چت‌بات‌ها و عامل‌های هوشمند پیشنهاد می‌دهد که آمریکا هنوز مسیر روشنی برای تنظیم‌گری ندارد

چین پیش‌نویس مقررات تازه‌ای را منتشر کرده است که هدف آن تنظیم و کنترل هوش مصنوعی انسان‌نما—از جمله چت‌بات‌ها و عامل‌های هوشمند—در فضای آنلاین است. بر اساس این پیشنهاد که توسط نهاد ناظر فضای مجازی چین منتشر شده، شرکت‌های هوش مصنوعی موظف خواهند بود کاربران را به‌طور مداوم از این‌که با یک سامانه مبتنی بر هوش مصنوعی تعامل دارند، مطلع کنند. علاوه بر این، این سامانه‌ها باید با «ارزش‌های هسته‌ای سوسیالیستی» همسو باشند، تحت بازبینی‌های امنیتی قرار گیرند و از تولید محتوای بالقوه آسیب‌زا—به‌ویژه در حوزه سلامت روان—خودداری کنند.

چرا مهم است؟

هوش مصنوعی انسان‌نما به‌سرعت در حال تبدیل‌شدن به یکی از تأثیرگذارترین فناوری‌های اجتماعی است. پژوهش‌های رو به افزایشی نشان می‌دهند که چت‌بات‌ها می‌توانند بسیار متقاعدکننده باشند و حتی رفتار و تصمیم‌های کاربران را شکل دهند. در چنین شرایطی، نحوه تنظیم‌گری این فناوری نه‌تنها یک مسئله فنی، بلکه موضوعی مرتبط با سلامت روان، امنیت ملی، سیاست‌گذاری عمومی و رقابت ژئوپلیتیکی است.

اقدام چین نشان می‌دهد که پکن قصد دارد هم‌زمان با توسعه صنعت داخلی هوش مصنوعی، قواعد استفاده از آن را نیز به‌دقت مهندسی کند—رویکردی که می‌تواند بر استانداردهای جهانی تنظیم‌گری نیز اثر بگذارد.

جزئیات مقررات پیشنهادی

طبق این پیش‌نویس، کاربران باید هنگام ورود به یک سرویس مبتنی بر هوش مصنوعی انسان‌نما مطلع شوند که با یک ربات تعامل دارند؛ اما این اطلاع‌رسانی به همین‌جا ختم نمی‌شود. سامانه‌ها موظف‌اند هر دو ساعت یک‌بار نیز این موضوع را به کاربر یادآوری کنند. هدف اعلام‌شده این است که مرز میان انسان و ماشین برای کاربران شفاف بماند و تعامل طولانی‌مدت باعث «انسان‌پنداری ناخواسته» نشود.

علاوه بر شفافیت هویتی، شرکت‌های هوش مصنوعی باید:

  • پیش از عرضه ابزارهای انسان‌نما، بازبینی امنیتی را طی کنند؛
  • راه‌اندازی هر سامانه جدید را به نهادهای دولتی محلی اطلاع دهند؛
  • اطمینان حاصل کنند که خروجی سامانه‌ها با اصول امنیت ملی چین و ارزش‌های رسمی حاکمیت همخوان است.

سلامت روان در مرکز ادعا

بخش قابل توجهی از مقررات پیشنهادی به تعامل‌های احساسی چت‌بات‌ها مربوط می‌شود. سامانه‌هایی که به‌طور فعال با احساسات کاربران درگیر می‌شوند—برای مثال از طریق همدلی، دلجویی یا مکالمه‌های طولانی‌مدت—به‌شدت محدود خواهند شد.

طبق این پیش‌نویس، چت‌بات‌ها حق ندارند محتوایی تولید کنند که:

  • به خودکشی یا خودآسیب‌رسانی دامن بزند؛
  • به‌گونه‌ای تشخیص داده شود که به سلامت روان کاربران آسیب می‌زند؛
  • با قمار، محتوای مستهجن یا خشونت‌آمیز مرتبط باشد.

این محدودیت‌ها بازتاب‌دهنده نگرانی‌های فزاینده درباره اعتیادآور بودن تعامل با چت‌بات‌ها و توانایی آن‌ها در تأثیرگذاری عاطفی بر کاربران، به‌ویژه افراد آسیب‌پذیر، است.

زمینه علمی و نگرانی‌های جهانی

در سال‌های اخیر، مطالعات متعددی نشان داده‌اند که سامانه‌های مکالمه‌محور می‌توانند اعتماد کاربران را جلب کنند، توصیه‌هایشان را معتبر جلوه دهند و حتی در برخی موارد کاربران را به سمت رفتارهای پرخطر سوق دهند. همین ویژگی‌هاست که باعث شده بحث تنظیم‌گری «هوش مصنوعی انسان‌نما» از یک موضوع تخصصی، به مسئله‌ای عمومی و سیاسی تبدیل شود.

چین با این پیش‌نویس، عملاً می‌پذیرد که قدرت اقناعی هوش مصنوعی یک مسئله واقعی است و باید به‌طور ساختاری مهار شود—حتی اگر این مهار با محدودیت‌های شدید محتوایی و ایدئولوژیک همراه باشد  و این نکته مهمی است که توجه ویژه‌ای را می‌طللبد. در تمام تاریخ فناوری تحت ساختارهای سلطه‌گر، مهار فناوری همواره با ادعای مراقبت از مردم صورت گرفته است. ادعای اینکه باید محتوا و متن را به گونه‌ای مدیریت کرد که مردم و جامعه دچار تنش نشوند و امنیت ایشان حفظ شود اگرچه ادعایی است که در ظاهر نمی‌توان با آن مخالفت کرد اما به محض آنکه زمان  اجرا پیش آید، می‌تواند ابزاری برای اعمال مدیریت و سانسور و سلطه و تعرض به حریم افراد باشد. زمانی که چین ادعای آرامش جامعه را مطرح می‌کند حتما بخشی از آن به روایت‌هایی اختصاص دارد که تصویر رژیم چین را ممکن است به خطر بیاندازد. زمانی که صحبت امنیت مطرح می‌شود نظارت بر مردم می‌تواند بهای این امنیت فرضی باشد و به همین دلیل بسیاری از ناظران هشدار می‌دهند که هر نظارتی اگر از سوی دولت صاحب قدرت باشد در نهایت در راستای نهادینه تر ساختن قدرت خواهد بود. این ناظران بیان می‌کنند اگر نظارتی بر فناوری باید باشد، باید از سوی نهادهای غیر دولتی، غیر وابسته و برآمده از جامعه مدنی و طیف‌های مختلف آن باشد.

رقابت ژئوپلیتیکی و تنظیم‌گری

این مقررات صرفاً یک اقدام داخلی نیست. پکن آشکارا به‌دنبال آن است که در رقابت با آمریکا، نه‌فقط در توسعه فناوری، بلکه در شکل‌دهی قواعد جهانی هوش مصنوعی پیش‌قدم باشد. تنظیم‌گری زودهنگام می‌تواند به چین این امکان را بدهد که استانداردهای مورد نظر خود را در بازارهای دیگر نیز ترویج کند—به‌ویژه در کشورهایی که به زیرساخت‌ها و پلتفرم‌های چینی متکی‌اند.

مقایسه با ایالات متحده

رویکرد چین در تضاد آشکار با وضعیت فعلی آمریکا قرار دارد. در واشنگتن، مسیر تنظیم‌گری هوش مصنوعی پراکنده و ناپایدار بوده است. دونالد ترامپ در ماه‌های نخست بازگشت به قدرت، پیشنهادهای ایمنی دوره بایدن برای تنظیم صنعت هوش مصنوعی را لغو کرد. او همچنین در هفته‌های اخیر، ایالت‌هایی را که قوانین محلی برای کنترل هوش مصنوعی تصویب کرده‌اند، به اقدام حقوقی فدرال تهدید کرده است—با این استدلال که چنین قوانینى مانع پیشرفت فناوری می‌شوند.

در نتیجه، در حالی که چین به‌سمت یک چارچوب متمرکز و سخت‌گیرانه حرکت می‌کند، آمریکا هنوز میان نوآوری، ایمنی و آزادی بازار تعادل روشنی پیدا نکرده است.

چه چیزی ممکن است تغییر کند؟

پیش‌نویس مقررات چین تا ۲۵ ژانویه ۲۰۲۶ برای دریافت نظر عمومی باز است و احتمال دارد در جزئیات دستخوش اصلاح شود. اما حتی در صورت تغییرات جزئی، جهت‌گیری کلی آن—یعنی کنترل شدید هوش مصنوعی انسان‌نما—به‌وضوح ترسیم شده است.

اقدام چین نشان می‌دهد که عصر چت‌بات‌های انسان‌نما بدون قاعده به پایان خود نزدیک می‌شود—دست‌کم در برخی نقاط جهان. پکن می‌کوشد هم‌زمان با بهره‌برداری اقتصادی و فناورانه از هوش مصنوعی، حدود روانی، سیاسی و امنیتی آن را نیز تعریف کند. این مسیر، پرسش‌های مهمی را پیش روی جامعه جهانی می‌گذارد: آیا تنظیم‌گری سخت‌گیرانه، هزینه نوآوری را بالا می‌برد یا از آسیب‌های اجتماعی پیشگیری می‌کند؟ و آیا جهان به‌سمت مدل چینی تنظیم‌گری حرکت خواهد کرد، یا همچنان شاهد شکاف عمیق میان رویکردها باقی خواهیم ماند؟

دیدگاهتان را بنویسید

*

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.