الزام به اعلام هویت ربات، بازبینی امنیتی و تبعیت ایدئولوژیک
پکن در حالی چارچوبی سختگیرانه برای چتباتها و عاملهای هوشمند پیشنهاد میدهد که آمریکا هنوز مسیر روشنی برای تنظیمگری ندارد
چین پیشنویس مقررات تازهای را منتشر کرده است که هدف آن تنظیم و کنترل هوش مصنوعی انساننما—از جمله چتباتها و عاملهای هوشمند—در فضای آنلاین است. بر اساس این پیشنهاد که توسط نهاد ناظر فضای مجازی چین منتشر شده، شرکتهای هوش مصنوعی موظف خواهند بود کاربران را بهطور مداوم از اینکه با یک سامانه مبتنی بر هوش مصنوعی تعامل دارند، مطلع کنند. علاوه بر این، این سامانهها باید با «ارزشهای هستهای سوسیالیستی» همسو باشند، تحت بازبینیهای امنیتی قرار گیرند و از تولید محتوای بالقوه آسیبزا—بهویژه در حوزه سلامت روان—خودداری کنند.
چرا مهم است؟
هوش مصنوعی انساننما بهسرعت در حال تبدیلشدن به یکی از تأثیرگذارترین فناوریهای اجتماعی است. پژوهشهای رو به افزایشی نشان میدهند که چتباتها میتوانند بسیار متقاعدکننده باشند و حتی رفتار و تصمیمهای کاربران را شکل دهند. در چنین شرایطی، نحوه تنظیمگری این فناوری نهتنها یک مسئله فنی، بلکه موضوعی مرتبط با سلامت روان، امنیت ملی، سیاستگذاری عمومی و رقابت ژئوپلیتیکی است.
اقدام چین نشان میدهد که پکن قصد دارد همزمان با توسعه صنعت داخلی هوش مصنوعی، قواعد استفاده از آن را نیز بهدقت مهندسی کند—رویکردی که میتواند بر استانداردهای جهانی تنظیمگری نیز اثر بگذارد.
جزئیات مقررات پیشنهادی
طبق این پیشنویس، کاربران باید هنگام ورود به یک سرویس مبتنی بر هوش مصنوعی انساننما مطلع شوند که با یک ربات تعامل دارند؛ اما این اطلاعرسانی به همینجا ختم نمیشود. سامانهها موظفاند هر دو ساعت یکبار نیز این موضوع را به کاربر یادآوری کنند. هدف اعلامشده این است که مرز میان انسان و ماشین برای کاربران شفاف بماند و تعامل طولانیمدت باعث «انسانپنداری ناخواسته» نشود.
علاوه بر شفافیت هویتی، شرکتهای هوش مصنوعی باید:
- پیش از عرضه ابزارهای انساننما، بازبینی امنیتی را طی کنند؛
- راهاندازی هر سامانه جدید را به نهادهای دولتی محلی اطلاع دهند؛
- اطمینان حاصل کنند که خروجی سامانهها با اصول امنیت ملی چین و ارزشهای رسمی حاکمیت همخوان است.
سلامت روان در مرکز ادعا
بخش قابل توجهی از مقررات پیشنهادی به تعاملهای احساسی چتباتها مربوط میشود. سامانههایی که بهطور فعال با احساسات کاربران درگیر میشوند—برای مثال از طریق همدلی، دلجویی یا مکالمههای طولانیمدت—بهشدت محدود خواهند شد.
طبق این پیشنویس، چتباتها حق ندارند محتوایی تولید کنند که:
- به خودکشی یا خودآسیبرسانی دامن بزند؛
- بهگونهای تشخیص داده شود که به سلامت روان کاربران آسیب میزند؛
- با قمار، محتوای مستهجن یا خشونتآمیز مرتبط باشد.
این محدودیتها بازتابدهنده نگرانیهای فزاینده درباره اعتیادآور بودن تعامل با چتباتها و توانایی آنها در تأثیرگذاری عاطفی بر کاربران، بهویژه افراد آسیبپذیر، است.
زمینه علمی و نگرانیهای جهانی
در سالهای اخیر، مطالعات متعددی نشان دادهاند که سامانههای مکالمهمحور میتوانند اعتماد کاربران را جلب کنند، توصیههایشان را معتبر جلوه دهند و حتی در برخی موارد کاربران را به سمت رفتارهای پرخطر سوق دهند. همین ویژگیهاست که باعث شده بحث تنظیمگری «هوش مصنوعی انساننما» از یک موضوع تخصصی، به مسئلهای عمومی و سیاسی تبدیل شود.
چین با این پیشنویس، عملاً میپذیرد که قدرت اقناعی هوش مصنوعی یک مسئله واقعی است و باید بهطور ساختاری مهار شود—حتی اگر این مهار با محدودیتهای شدید محتوایی و ایدئولوژیک همراه باشد و این نکته مهمی است که توجه ویژهای را میطللبد. در تمام تاریخ فناوری تحت ساختارهای سلطهگر، مهار فناوری همواره با ادعای مراقبت از مردم صورت گرفته است. ادعای اینکه باید محتوا و متن را به گونهای مدیریت کرد که مردم و جامعه دچار تنش نشوند و امنیت ایشان حفظ شود اگرچه ادعایی است که در ظاهر نمیتوان با آن مخالفت کرد اما به محض آنکه زمان اجرا پیش آید، میتواند ابزاری برای اعمال مدیریت و سانسور و سلطه و تعرض به حریم افراد باشد. زمانی که چین ادعای آرامش جامعه را مطرح میکند حتما بخشی از آن به روایتهایی اختصاص دارد که تصویر رژیم چین را ممکن است به خطر بیاندازد. زمانی که صحبت امنیت مطرح میشود نظارت بر مردم میتواند بهای این امنیت فرضی باشد و به همین دلیل بسیاری از ناظران هشدار میدهند که هر نظارتی اگر از سوی دولت صاحب قدرت باشد در نهایت در راستای نهادینه تر ساختن قدرت خواهد بود. این ناظران بیان میکنند اگر نظارتی بر فناوری باید باشد، باید از سوی نهادهای غیر دولتی، غیر وابسته و برآمده از جامعه مدنی و طیفهای مختلف آن باشد.
رقابت ژئوپلیتیکی و تنظیمگری
این مقررات صرفاً یک اقدام داخلی نیست. پکن آشکارا بهدنبال آن است که در رقابت با آمریکا، نهفقط در توسعه فناوری، بلکه در شکلدهی قواعد جهانی هوش مصنوعی پیشقدم باشد. تنظیمگری زودهنگام میتواند به چین این امکان را بدهد که استانداردهای مورد نظر خود را در بازارهای دیگر نیز ترویج کند—بهویژه در کشورهایی که به زیرساختها و پلتفرمهای چینی متکیاند.
مقایسه با ایالات متحده
رویکرد چین در تضاد آشکار با وضعیت فعلی آمریکا قرار دارد. در واشنگتن، مسیر تنظیمگری هوش مصنوعی پراکنده و ناپایدار بوده است. دونالد ترامپ در ماههای نخست بازگشت به قدرت، پیشنهادهای ایمنی دوره بایدن برای تنظیم صنعت هوش مصنوعی را لغو کرد. او همچنین در هفتههای اخیر، ایالتهایی را که قوانین محلی برای کنترل هوش مصنوعی تصویب کردهاند، به اقدام حقوقی فدرال تهدید کرده است—با این استدلال که چنین قوانینى مانع پیشرفت فناوری میشوند.
در نتیجه، در حالی که چین بهسمت یک چارچوب متمرکز و سختگیرانه حرکت میکند، آمریکا هنوز میان نوآوری، ایمنی و آزادی بازار تعادل روشنی پیدا نکرده است.
چه چیزی ممکن است تغییر کند؟
پیشنویس مقررات چین تا ۲۵ ژانویه ۲۰۲۶ برای دریافت نظر عمومی باز است و احتمال دارد در جزئیات دستخوش اصلاح شود. اما حتی در صورت تغییرات جزئی، جهتگیری کلی آن—یعنی کنترل شدید هوش مصنوعی انساننما—بهوضوح ترسیم شده است.
اقدام چین نشان میدهد که عصر چتباتهای انساننما بدون قاعده به پایان خود نزدیک میشود—دستکم در برخی نقاط جهان. پکن میکوشد همزمان با بهرهبرداری اقتصادی و فناورانه از هوش مصنوعی، حدود روانی، سیاسی و امنیتی آن را نیز تعریف کند. این مسیر، پرسشهای مهمی را پیش روی جامعه جهانی میگذارد: آیا تنظیمگری سختگیرانه، هزینه نوآوری را بالا میبرد یا از آسیبهای اجتماعی پیشگیری میکند؟ و آیا جهان بهسمت مدل چینی تنظیمگری حرکت خواهد کرد، یا همچنان شاهد شکاف عمیق میان رویکردها باقی خواهیم ماند؟