در پی تیراندازی مرگبار در تامبلر ریج، بریتیش کلمبیا، بحثی قدیمی بار دیگر به صدر توجه عمومی بازگشته است: آیا باید شرکتهای هوش مصنوعی را ملزم کرد که تهدیدهای احتمالی کاربران را به پلیس گزارش دهند؟
ماجرا از آنجا شدت گرفت که مشخص شد عامل این حمله، ماهها پیش از حادثه، از پلتفرم ChatGPT متعلق به OpenAI اخراج شده بود. شرکت اعلام کرده بود که حساب او در ژوئن مسدود شده، اما در آن زمان رفتار او به آستانهای که نیازمند اطلاعرسانی به نیروهای انتظامی باشد نرسیده بود. به گفته شرکت، هیچ نشانهای از «برنامهریزی معتبر یا قریبالوقوع» برای خشونت وجود نداشت. گزارشهایی نیز منتشر شده که حساب او به دلیل سناریوهای مرتبط با خشونت مسلحانه مسدود شده بود.
این تصمیم اکنون زیر ذرهبین است. وزیر فدرال هوش مصنوعی کانادا، ایوان سولومون، OpenAI را به اتاوا فراخوانده تا درباره سیاستهای ایمنی و معیارهای گزارشدهی خود توضیح دهد. در سطح استانی نیز دیوید ایبی، نخستوزیر بریتیش کلمبیا، از ایجاد یک «آستانه ملی یکسان» برای گزارش تهدیدهای خشونتآمیز توسط شرکتهای هوش مصنوعی حمایت کرده است. اما آیا چنین قانونی واقعاً قابل اجراست؟
خلاصه حادثه تامبلر ریج و اهمیت آن در فضای عمومی کانادا
در ۱۰ فوریه ۲۰۲۶، یک حادثه تیراندازی مرگبار در شهر کوچک تامبلر ریج در استان بریتیش کلمبیا رخ داد که به کشته شدن چند نفر انجامید و شوکی گسترده در سطح ملی ایجاد کرد. این رویداد نهتنها به دلیل ابعاد انسانی آن، بلکه به دلیل پرسشهایی که درباره پیشگیری و نظارت بر تهدیدهای آنلاین مطرح کرد، به سرعت به موضوعی در سطح سیاست فدرال تبدیل شد.
پس از انتشار گزارشهایی مبنی بر اینکه فرد متهم پیشتر در یکی از پلتفرمهای هوش مصنوعی فعالیت داشته و حساب او مسدود شده بود، بحثی جدی در کانادا شکل گرفت: آیا شرکتهای فناوری و هوش مصنوعی باید در صورت مشاهده رفتارهای نگرانکننده، پلیس را مطلع کنند؟ و اگر چنین الزامی ایجاد شود، مرز آن با حریم خصوصی و آزادی بیان کجاست؟
این حادثه اکنون به نقطه تمرکز گفتوگوهای ملی درباره «ایمنی آنلاین»، «مسئولیت پلتفرمهای دیجیتال» و نحوه قانونگذاری هوش مصنوعی در کانادا تبدیل شده است. برای بسیاری، تامبلر ریج تنها یک پرونده جنایی نیست، بلکه نمونهای است از چالشهای جدیدی که جامعه با گسترش فناوریهای هوش مصنوعی با آن روبهرو است.
خط باریک میان امنیت و حریم خصوصی
امیلی لیدلاو، استاد حقوق امنیت سایبری و دارنده کرسی پژوهشی کانادا در دانشگاه کلگری، میگوید دولت فدرال میتواند قانونی تصویب کند که حداقلی از استاندارد گزارشدهی را تعیین کند، اما تأکید میکند که کار سادهای نخواهد بود.
به گفته او، هر شرکت هوش مصنوعی در حال حاضر سیاست داخلی خود را درباره زمان و نحوه اطلاعرسانی به پلیس دارد. تلاشهایی نیز در سال ۲۰۲۱ برای گنجاندن الزامهای گزارشدهی در قانون ایمنی آنلاین مطرح شد، اما پس از واکنشهای منفی گسترده، کنار گذاشته شد.
چالش اصلی، تعریف دقیق «آستانه گزارش» است. اگر قانون بیش از حد گسترده نوشته شود و هر رفتار مشکوکی را مشمول گزارش اجباری کند، عملاً سیلی از اطلاعات به سمت پلیس سرازیر خواهد شد؛ اطلاعاتی که بسیاری از آنها نه تهدید واقعیاند و نه قابل پیگیری. نیروهای انتظامی ظرفیت رسیدگی به چنین حجم عظیمی از داده را ندارند، و این وضعیت میتواند به نقض گسترده حریم خصوصی کاربران نیز بینجامد.
در مقابل، اگر قانون بیش از حد محدود باشد، ممکن است مواردی که «نگرانی جدی اما نه فوری» ایجاد میکنند از قلم بیفتند؛ همان ناحیه خاکستری که در پرونده اخیر مورد بحث قرار گرفته است.
لیدلاو میگوید پرسش اصلی این است: چگونه میتوان قانونی نوشت که هم از امنیت عمومی حفاظت کند و هم از باز شدن «سیل گزارشهای بیپایه» جلوگیری کند؟
زمینه حقوقی و سیاسی
دولت لیبرال کانادا ماه گذشته تأیید کرد که در حال کار روی قانون جدیدی برای مقابله با آسیبهای آنلاین است. در سال ۲۰۲۴ نیز پیشنویس قوانینی ارائه شده بود که شبکههای اجتماعی را موظف میکرد توضیح دهند چگونه خطرات پلتفرمهای خود را کاهش میدهند و وظیفهای برای حفاظت از کودکان بر عهده بگیرند، اما آن طرح پیش از انتخابات ۲۰۲۵ به قانون تبدیل نشد.
اکنون با گسترش ابزارهای هوش مصنوعی مولد، پرسش این است که آیا چتباتها نیز باید مشمول الزامات مشابهی شوند یا خیر. وزیر هوش مصنوعی گفته همه گزینهها روی میز است، اما هنوز مشخص نیست مسیر قانونگذاری دقیقاً به کجا خواهد انجامید.
چرا این موضوع پیچیده است؟
در ظاهر، راهحل ساده به نظر میرسد: اگر کاربری درباره خشونت صحبت میکند، شرکت باید پلیس را در جریان بگذارد. اما در عمل، کاربران ممکن است درباره موضوعات خشن در زمینههای گوناگون—از داستاننویسی و تحقیق دانشگاهی گرفته تا تحلیل اخبار—سؤال بپرسند. تمایز میان «کنجکاوی»، «تخیل»، «بیان ناراحتی روانی» و «برنامهریزی واقعی برای خشونت» کار آسانی نیست.
از سوی دیگر، اگر شرکتها موظف شوند هر مورد مشکوک را گزارش دهند، ممکن است برای جلوگیری از مسئولیت حقوقی، رویکردی بیشازحد محتاطانه در پیش بگیرند و حجم عظیمی از اطلاعات را به پلیس ارسال کنند. چنین رویکردی میتواند اعتماد کاربران را از بین ببرد و به نظارت گسترده و ناخواسته منجر شود.
در مقابل، اگر تنها تهدیدهای «قریبالوقوع و مشخص» مشمول گزارش شوند، مواردی که نشانههای هشداردهنده اما مبهم دارند ممکن است دیده نشوند.
پرسش بزرگتر
پرونده تامبلر ریج نشان میدهد جامعه هنوز در حال تعریف نقش و مسئولیت شرکتهای هوش مصنوعی در قبال امنیت عمومی است. آیا این شرکتها باید همانند شبکههای اجتماعی رفتار کنند؟ آیا باید مسئولیت بیشتری نسبت به پلتفرمهای دیگر داشته باشند، چون تعامل آنها مستقیمتر و شخصیتر است؟ و اگر آستانه گزارش تعیین شود، چه نهادی آن را تفسیر و اجرا خواهد کرد؟
آنچه روشن است این است که پاسخ سادهای وجود ندارد. همانطور که لیدلاو تأکید میکند، تدوین چنین قانونی «بسیار دشوار» است و میتواند پیامدهای ناخواستهای به همراه داشته باشد.
در حالی که افکار عمومی به دنبال پاسخ فوری است، قانونگذاران باید میان امنیت، آزادی بیان، حریم خصوصی و ظرفیت اجرایی پلیس توازن برقرار کنند—توازنی که یافتن آن، در عصر هوش مصنوعی، آسان نخواهد بود.