لقد وضع نوع جديد من الهجمات عالم الذكاء الاصطناعي في حالة تأهب. وحتى الآن، كانت نماذج الذكاء الاصطناعي تُعتبر صناديق سوداء يصعب استنساخها، لكن الباحثين أثبتوا أنه من الممكن إعادة بناء نموذج كامل دون الوصول المباشر إلى النظام، وذلك ببساطة عن طريق استغلال الانبعاثات الفيزيائية التي يُصدرها أثناء التشغيل.
تُعرف هذه الطريقة، المسماة ModelSpy، بنوع من تقنيات الهجوم الجانبي. فبدلاً من البحث عن ثغرات في البرامج أو الشبكات، تلتقط هذه الطريقة الإشارات الكهرومغناطيسية المنبعثة من مكونات وحدة معالجة الرسومات (GPU) أثناء معالجتها لأحمال عمل الذكاء الاصطناعي. تحتوي هذه الإشارات على أنماط تعكس البنية الداخلية للنموذج.
ولتنفيذ الهجوم، استخدم الباحثون هوائيًا صغيرًا يُمكن إخفاؤه في حقيبة ظهر. وبفضل هذا الجهاز، تمكنوا من التقاط الإشارات من مسافة عدة أمتار، حتى من خلال الجدران.
من خلال تحليل هذه البيانات، تمكنوا من استنتاج تفاصيل أساسية حول بنية النموذج، بما في ذلك ترتيب الطبقات وبعض المعايير. النتائج مبهرة: يحقق النظام دقة تصل إلى 97.6% في تحديد البنى الداخلية لنماذج الذكاء الاصطناعي.
هذا يعني أنه في بعض الحالات، قد يتمكن المهاجم من نسخ تقنية خاصة دون الحاجة إلى اختراق الخوادم أو الوصول المادي إلى المعدات. قد يُحدث هذا الاكتشاف نقلة نوعية، إذ أن أمن أنظمة الذكاء الاصطناعي كان يركز حتى الآن بشكل أساسي على البرمجيات والشبكات.
يُظهر هذا الهجوم أن الآثار الجانبية للأجهزة قد تُصبح مصدرًا لتسريب المعلومات، مما يُشكل خطرًا كبيرًا على شركات التكنولوجيا، التي تُمثل نماذج الذكاء الاصطناعي الخاصة بها جزءًا أساسيًا من ملكيتها الفكرية. حتى الأنظمة المعزولة قد تُصبح غير آمنة إذا لم يتم التحكم في انبعاثاتها.
كإجراءات مضادة محتملة، يقترح الباحثون إدخال ضوضاء كهرومغناطيسية أو تعديل أنماط الحساب لجعل تفسير الإشارات أكثر صعوبة.
from حوحو للمعلوميات https://ift.tt/Tq4BcI6
via IFTTT



0 التعليقات:
إرسال تعليق