آیا می‌توان شرکت‌های هوش مصنوعی را مجبور به گزارش تهدیدهای آنلاین کرد؟ مسأله‌ای پیچیده‌تر از آنچه به نظر می‌رسد

در پی تیراندازی مرگبار در تامبلر ریج، بریتیش کلمبیا، بحثی قدیمی بار دیگر به صدر توجه عمومی بازگشته است: آیا باید شرکت‌های هوش مصنوعی را ملزم کرد که تهدیدهای احتمالی کاربران را به پلیس گزارش دهند؟

ماجرا از آنجا شدت گرفت که مشخص شد عامل این حمله، ماه‌ها پیش از حادثه، از پلتفرم ChatGPT متعلق به OpenAI اخراج شده بود. شرکت اعلام کرده بود که حساب او در ژوئن مسدود شده، اما در آن زمان رفتار او به آستانه‌ای که نیازمند اطلاع‌رسانی به نیروهای انتظامی باشد نرسیده بود. به گفته شرکت، هیچ نشانه‌ای از «برنامه‌ریزی معتبر یا قریب‌الوقوع» برای خشونت وجود نداشت. گزارش‌هایی نیز منتشر شده که حساب او به دلیل سناریوهای مرتبط با خشونت مسلحانه مسدود شده بود.

این تصمیم اکنون زیر ذره‌بین است. وزیر فدرال هوش مصنوعی کانادا، ایوان سولومون، OpenAI را به اتاوا فراخوانده تا درباره سیاست‌های ایمنی و معیارهای گزارش‌دهی خود توضیح دهد. در سطح استانی نیز دیوید ایبی، نخست‌وزیر بریتیش کلمبیا، از ایجاد یک «آستانه ملی یکسان» برای گزارش تهدیدهای خشونت‌آمیز توسط شرکت‌های هوش مصنوعی حمایت کرده است. اما آیا چنین قانونی واقعاً قابل اجراست؟

خلاصه حادثه تامبلر ریج و اهمیت آن در فضای عمومی کانادا

در ۱۰ فوریه ۲۰۲۶، یک حادثه تیراندازی مرگبار در شهر کوچک تامبلر ریج در استان بریتیش کلمبیا رخ داد که به کشته شدن چند نفر انجامید و شوکی گسترده در سطح ملی ایجاد کرد. این رویداد نه‌تنها به دلیل ابعاد انسانی آن، بلکه به دلیل پرسش‌هایی که درباره پیشگیری و نظارت بر تهدیدهای آنلاین مطرح کرد، به سرعت به موضوعی در سطح سیاست فدرال تبدیل شد.

پس از انتشار گزارش‌هایی مبنی بر اینکه فرد متهم پیش‌تر در یکی از پلتفرم‌های هوش مصنوعی فعالیت داشته و حساب او مسدود شده بود، بحثی جدی در کانادا شکل گرفت: آیا شرکت‌های فناوری و هوش مصنوعی باید در صورت مشاهده رفتارهای نگران‌کننده، پلیس را مطلع کنند؟ و اگر چنین الزامی ایجاد شود، مرز آن با حریم خصوصی و آزادی بیان کجاست؟

این حادثه اکنون به نقطه تمرکز گفت‌وگوهای ملی درباره «ایمنی آنلاین»، «مسئولیت پلتفرم‌های دیجیتال» و نحوه قانون‌گذاری هوش مصنوعی در کانادا تبدیل شده است. برای بسیاری، تامبلر ریج تنها یک پرونده جنایی نیست، بلکه نمونه‌ای است از چالش‌های جدیدی که جامعه با گسترش فناوری‌های هوش مصنوعی با آن روبه‌رو است.

خط باریک میان امنیت و حریم خصوصی

امیلی لیدلاو، استاد حقوق امنیت سایبری و دارنده کرسی پژوهشی کانادا در دانشگاه کلگری، می‌گوید دولت فدرال می‌تواند قانونی تصویب کند که حداقلی از استاندارد گزارش‌دهی را تعیین کند، اما تأکید می‌کند که کار ساده‌ای نخواهد بود.

به گفته او، هر شرکت هوش مصنوعی در حال حاضر سیاست داخلی خود را درباره زمان و نحوه اطلاع‌رسانی به پلیس دارد. تلاش‌هایی نیز در سال ۲۰۲۱ برای گنجاندن الزام‌های گزارش‌دهی در قانون ایمنی آنلاین مطرح شد، اما پس از واکنش‌های منفی گسترده، کنار گذاشته شد.

چالش اصلی، تعریف دقیق «آستانه گزارش» است. اگر قانون بیش از حد گسترده نوشته شود و هر رفتار مشکوکی را مشمول گزارش اجباری کند، عملاً سیلی از اطلاعات به سمت پلیس سرازیر خواهد شد؛ اطلاعاتی که بسیاری از آن‌ها نه تهدید واقعی‌اند و نه قابل پیگیری. نیروهای انتظامی ظرفیت رسیدگی به چنین حجم عظیمی از داده را ندارند، و این وضعیت می‌تواند به نقض گسترده حریم خصوصی کاربران نیز بینجامد.

در مقابل، اگر قانون بیش از حد محدود باشد، ممکن است مواردی که «نگرانی جدی اما نه فوری» ایجاد می‌کنند از قلم بیفتند؛ همان ناحیه خاکستری که در پرونده اخیر مورد بحث قرار گرفته است.

لیدلاو می‌گوید پرسش اصلی این است: چگونه می‌توان قانونی نوشت که هم از امنیت عمومی حفاظت کند و هم از باز شدن «سیل گزارش‌های بی‌پایه» جلوگیری کند؟

زمینه حقوقی و سیاسی

دولت لیبرال کانادا ماه گذشته تأیید کرد که در حال کار روی قانون جدیدی برای مقابله با آسیب‌های آنلاین است. در سال ۲۰۲۴ نیز پیش‌نویس قوانینی ارائه شده بود که شبکه‌های اجتماعی را موظف می‌کرد توضیح دهند چگونه خطرات پلتفرم‌های خود را کاهش می‌دهند و وظیفه‌ای برای حفاظت از کودکان بر عهده بگیرند، اما آن طرح پیش از انتخابات ۲۰۲۵ به قانون تبدیل نشد.

اکنون با گسترش ابزارهای هوش مصنوعی مولد، پرسش این است که آیا چت‌بات‌ها نیز باید مشمول الزامات مشابهی شوند یا خیر. وزیر هوش مصنوعی گفته همه گزینه‌ها روی میز است، اما هنوز مشخص نیست مسیر قانون‌گذاری دقیقاً به کجا خواهد انجامید.

چرا این موضوع پیچیده است؟

در ظاهر، راه‌حل ساده به نظر می‌رسد: اگر کاربری درباره خشونت صحبت می‌کند، شرکت باید پلیس را در جریان بگذارد. اما در عمل، کاربران ممکن است درباره موضوعات خشن در زمینه‌های گوناگون—از داستان‌نویسی و تحقیق دانشگاهی گرفته تا تحلیل اخبار—سؤال بپرسند. تمایز میان «کنجکاوی»، «تخیل»، «بیان ناراحتی روانی» و «برنامه‌ریزی واقعی برای خشونت» کار آسانی نیست.

از سوی دیگر، اگر شرکت‌ها موظف شوند هر مورد مشکوک را گزارش دهند، ممکن است برای جلوگیری از مسئولیت حقوقی، رویکردی بیش‌ازحد محتاطانه در پیش بگیرند و حجم عظیمی از اطلاعات را به پلیس ارسال کنند. چنین رویکردی می‌تواند اعتماد کاربران را از بین ببرد و به نظارت گسترده و ناخواسته منجر شود.

در مقابل، اگر تنها تهدیدهای «قریب‌الوقوع و مشخص» مشمول گزارش شوند، مواردی که نشانه‌های هشداردهنده اما مبهم دارند ممکن است دیده نشوند.

پرسش بزرگ‌تر

پرونده تامبلر ریج نشان می‌دهد جامعه هنوز در حال تعریف نقش و مسئولیت شرکت‌های هوش مصنوعی در قبال امنیت عمومی است. آیا این شرکت‌ها باید همانند شبکه‌های اجتماعی رفتار کنند؟ آیا باید مسئولیت بیشتری نسبت به پلتفرم‌های دیگر داشته باشند، چون تعامل آن‌ها مستقیم‌تر و شخصی‌تر است؟ و اگر آستانه گزارش تعیین شود، چه نهادی آن را تفسیر و اجرا خواهد کرد؟

آنچه روشن است این است که پاسخ ساده‌ای وجود ندارد. همان‌طور که لیدلاو تأکید می‌کند، تدوین چنین قانونی «بسیار دشوار» است و می‌تواند پیامدهای ناخواسته‌ای به همراه داشته باشد.

در حالی که افکار عمومی به دنبال پاسخ فوری است، قانون‌گذاران باید میان امنیت، آزادی بیان، حریم خصوصی و ظرفیت اجرایی پلیس توازن برقرار کنند—توازنی که یافتن آن، در عصر هوش مصنوعی، آسان نخواهد بود.

دیدگاهتان را بنویسید

*

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.