هشدار سازمان دیده بان تروریسم:
هوش مصنوعی تهدیدی برای امنیت ملی انگلیس است
سرویسهای امنیتی میترسند که فناوری هوش مصنوعی مورد استفاده افراد خرابکار قرار بگیرد و تهدیدی برای امنیت ملی انگلیس باشد.
به گزارش
خبرگزاری صداوسیما به نقل از
گاردین، به گفته سازمان دیده بان تروریسم، سازندگان هوش مصنوعی باید ذهنیت «آرمانشهری فناوری» خود را کنار بگذارند، زیرا میترسند که فناوری جدید برای انجام کارهای خرابکارانه مورد استفاده قرار گیرد.
جاناتان هال کی سی که نقشش بررسی کفایت قوانین تروریسم است، گفت: تهدید امنیت ملی ناشی از هوش مصنوعی روز به روز آشکارتر میشود و این فناوری باید با نیات تروریستها همگام شود. او گفت: توسعه بیش از حد هوش مصنوعی روی نکات مثبت بالقوه این فناوری متمرکز شده، در حالی که از در نظر گرفتن اینکه چگونه تروریستها ممکن است از آن برای انجام حملات استفاده کنند، غفلت کرده است.
هال گفت: شما باید در برابر کاری که میدانید مردم با آن انجام میدهند، اقداماتی انجام دهید.
دولت انگلیس اذعان کرد که به طور فزایندهای نگران دامنه چت باتهای هوش مصنوعی برای متقاعد کردن افراد تروریست یا واگرای عصبی برای انجام حملات تروریستی است.
به نظر میرسد که سرویسهای امنیتی بهویژه نگران توانایی چت باتهای هوش مصنوعی برای پرورش کودکان هستند که در حال حاضر بخش فزایندهای از پروندههای تروریستی MI۵ هستند.
از آنجایی که به دنبال هشدارهای هفته گذشته از سوی پیشگامان هوش مصنوعی مبنی بر اینکه این فناوری میتواند بقای نسل بشر را تهدید کند، درخواستها برای تنظیم این فناوری افزایش یافته و انتظار میرود که ریشی سوناک، نخست وزیر انگلیس این موضوع را در سفرش به آمریکا و دیدار با رئیس جمهور و نمایندگان این کشور مطرح کند.
در انگلیس، تلاشها برای مقابله با چالشهای امنیت ملی ناشی از هوش مصنوعی با مشارکت MI۵ و موسسه آلن تورینگ، نهاد ملی علم داده و هوش مصنوعی، شدت گرفته است.
الکساندر بلانچارد، محقق اخلاق دیجیتال در موسسه آلن تورینگ گفت: همکاری این موسسه با سرویسهای امنیتی نشان میدهد که انگلیس با چالشهای امنیتی ارائه شده توسط هوش مصنوعی بسیار جدی برخورد میکند. تمایل زیادی در میان سیاستگذاران دفاعی و امنیتی برای درک آنچه در حال رخ دادن است، افراد چگونه میتوانند از هوش مصنوعی استفاده کنند و تهدیدات چیست، وجود دارد.
هفته گذشته، سوناک گفت که انگلیس میخواهد به یک مرکز جهانی برای هوش مصنوعی و مقررات آن تبدیل شود و اصرار داشت که این کشور میتواند مزایای عظیمی برای اقتصاد و جامعه داشته باشد.
هم بلانچارد و هم هال میگویند که مسئله اصلی این است که چگونه انسانها استقلال شناختی و کنترل را بر هوش مصنوعی حفظ میکنند و چگونه این کنترل در فناوری تعبیه میشود.
هال گفت که شرکتهای فناوری باید از اشتباهات گذشته درس بگیرند. شبکههای اجتماعی در گذشته یک سکوی کلیدی برای تبادل محتوای تروریستی بوده است. هال اضافه کرد: شفافیت بیشتری از سوی شرکتهای پشتیبان فناوری هوش مصنوعی نیز مورد نیاز است. عمدتا هم درباره تعداد کارمندان و مدیرانی که آنها استخدام میکنند.
او گفت: ما به وضوح کامل در مورد تعداد افرادی که روی این چیزها کار میکنند نیاز داریم. چند نفر واقعا درگیر این موضوعات هستند، وقتی میگویند نردههای محافظ دارند، چیست؟ چه کسی آنها را کنترل میکند؟ اگر یک شرکت دو نفره کارمند دارد، آنها چقدر زمان را به امنیت عمومی اختصاص میدهند؟ و باقی موارد.
هال گفت که ممکن است قوانین جدیدی برای مقابله با تهدید تروریسم ناشی از هوش مصنوعی نیز مورد نیاز باشد تا خطر فزاینده سلاحهای خود مختار کشنده (دستگاههایی که از هوش مصنوعی برای انتخاب اهداف خود استفاده میکنند) را مهار کند.
هال گفت: شما در مورد یک نوع تروریست است که میتواند پرواز کند، صحبت میکنید. این سیستمها به معنای واقعی کلمه میتوانند یک پهپاد را به هوا پرتاب و دور کنند. هیچ کس نمیداند که هوش مصنوعی قرار است چه تصمیمی بگیرد. برای مثال ممکن است فقط جمعیتی را بمباران کند. آیا قوانین کیفری ما برای مقابله با آن آماده اند؟