كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) عن أسلوب جديد لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات غير مرئية تصدر أثناء عمل الأجهزة، دون الحاجة إلى اختراق تقليدي أو وصول مباشر للنظام.
وتعتمد التقنية، التي أُطلق عليها اسم 'ModelSpy'، على رصد الانبعاثات الكهرومغناطيسية الصادرة عن وحدات معالجة الرسومات (GPU) أثناء تنفيذ المهام، ما يسمح بإعادة بناء تصميم النماذج الذكية بشكل دقيق.
اختراق عبر الاستماع فقط باستخدام هوائي صغير يمكن إخفاؤه بسهولة، نجح الباحثون في التقاط إشارات ضعيفة تنبعث من الأجهزة أثناء تشغيل تطبيقات الذكاء الاصطناعي.
ورغم دقة هذه الإشارات، فإنها تحمل أنماطاً مرتبطة ببنية النموذج، مثل ترتيب الطبقات والمعلمات المستخدمة، بحسب تقرير نشره موقع 'digitaltrends' واطلعت عليه 'العربية Business'.
وأظهرت التجارب أن هذه الطريقة تمكنت من تحديد البنية الأساسية للنماذج بدقة تصل إلى 97.6%، حتى من مسافة تصل إلى ستة أمتار، وفي بعض الحالات عبر الجدران، ما يثير مخاوف جدية بشأن أمن هذه الأنظمة.
تهديد جديد للأمن السيبراني يمثل هذا الاكتشاف تحولاً في مفهوم أمن الذكاء الاصطناعي، إذ لم يعد الخطر يقتصر على الهجمات البرمجية أو الاختراقات الشبكية، بل يمتد إلى الآثار الفيزيائية الناتجة عن عمليات الحوسبة نفسها.
وبالنسبة للشركات، قد يشكل ذلك خطراً مباشراً على الملكية الفكرية، حيث يمكن سرقة تصميم النماذج دون ترك أي أثر رقمي أو الحاجة إلى اختراق الأنظمة.
حلول معقدة وتحديات جديدة اقترح الباحثون عدداً من الإجراءات للحد من هذه المخاطر، مثل إضافة ضوضاء كهرومغناطيسية للتشويش على الإشارات، أو تعديل طريقة تنفيذ العمليات الحسابية لجعل الأنماط أقل قابلية للتحليل.
لكن هذه الحلول تشير إلى أن حماية أنظمة الذكاء الاصطناعي قد تتطلب تعديلات على مستوى العتاد (Hardware)، وليس فقط تحديثات برمجية، ما يزيد من تعقيد تأمين هذه الأنظمة، خاصة في البيئات التي تعتمد على بنى تحتية قائمة.
ويؤكد هذا التطور أن التهديدات المستقبلية قد لا تعتمد على اختراق الأنظمة بشكل مباشر، بل على مراقبة ما تكشفه الأجهزة بشكل غير مقصود، ما يفتح فصلاً جديداً في سباق الأمن السيبراني.
كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) عن أسلوب جديد لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات غير مرئية تصدر أثناء عمل الأجهزة، دون الحاجة إلى اختراق تقليدي أو وصول مباشر للنظام.
وتعتمد التقنية، التي أُطلق عليها اسم 'ModelSpy'، على رصد الانبعاثات الكهرومغناطيسية الصادرة عن وحدات معالجة الرسومات (GPU) أثناء تنفيذ المهام، ما يسمح بإعادة بناء تصميم النماذج الذكية بشكل دقيق.
اختراق عبر الاستماع فقط باستخدام هوائي صغير يمكن إخفاؤه بسهولة، نجح الباحثون في التقاط إشارات ضعيفة تنبعث من الأجهزة أثناء تشغيل تطبيقات الذكاء الاصطناعي.
ورغم دقة هذه الإشارات، فإنها تحمل أنماطاً مرتبطة ببنية النموذج، مثل ترتيب الطبقات والمعلمات المستخدمة، بحسب تقرير نشره موقع 'digitaltrends' واطلعت عليه 'العربية Business'.
وأظهرت التجارب أن هذه الطريقة تمكنت من تحديد البنية الأساسية للنماذج بدقة تصل إلى 97.6%، حتى من مسافة تصل إلى ستة أمتار، وفي بعض الحالات عبر الجدران، ما يثير مخاوف جدية بشأن أمن هذه الأنظمة.
تهديد جديد للأمن السيبراني يمثل هذا الاكتشاف تحولاً في مفهوم أمن الذكاء الاصطناعي، إذ لم يعد الخطر يقتصر على الهجمات البرمجية أو الاختراقات الشبكية، بل يمتد إلى الآثار الفيزيائية الناتجة عن عمليات الحوسبة نفسها.
وبالنسبة للشركات، قد يشكل ذلك خطراً مباشراً على الملكية الفكرية، حيث يمكن سرقة تصميم النماذج دون ترك أي أثر رقمي أو الحاجة إلى اختراق الأنظمة.
حلول معقدة وتحديات جديدة اقترح الباحثون عدداً من الإجراءات للحد من هذه المخاطر، مثل إضافة ضوضاء كهرومغناطيسية للتشويش على الإشارات، أو تعديل طريقة تنفيذ العمليات الحسابية لجعل الأنماط أقل قابلية للتحليل.
لكن هذه الحلول تشير إلى أن حماية أنظمة الذكاء الاصطناعي قد تتطلب تعديلات على مستوى العتاد (Hardware)، وليس فقط تحديثات برمجية، ما يزيد من تعقيد تأمين هذه الأنظمة، خاصة في البيئات التي تعتمد على بنى تحتية قائمة.
ويؤكد هذا التطور أن التهديدات المستقبلية قد لا تعتمد على اختراق الأنظمة بشكل مباشر، بل على مراقبة ما تكشفه الأجهزة بشكل غير مقصود، ما يفتح فصلاً جديداً في سباق الأمن السيبراني.
كشفت دراسة حديثة أجراها باحثون بقيادة معهد كوريا المتقدم للعلوم والتكنولوجيا (KAIST) عن أسلوب جديد لاختراق أنظمة الذكاء الاصطناعي، يعتمد على التقاط إشارات غير مرئية تصدر أثناء عمل الأجهزة، دون الحاجة إلى اختراق تقليدي أو وصول مباشر للنظام.
وتعتمد التقنية، التي أُطلق عليها اسم 'ModelSpy'، على رصد الانبعاثات الكهرومغناطيسية الصادرة عن وحدات معالجة الرسومات (GPU) أثناء تنفيذ المهام، ما يسمح بإعادة بناء تصميم النماذج الذكية بشكل دقيق.
اختراق عبر الاستماع فقط باستخدام هوائي صغير يمكن إخفاؤه بسهولة، نجح الباحثون في التقاط إشارات ضعيفة تنبعث من الأجهزة أثناء تشغيل تطبيقات الذكاء الاصطناعي.
ورغم دقة هذه الإشارات، فإنها تحمل أنماطاً مرتبطة ببنية النموذج، مثل ترتيب الطبقات والمعلمات المستخدمة، بحسب تقرير نشره موقع 'digitaltrends' واطلعت عليه 'العربية Business'.
وأظهرت التجارب أن هذه الطريقة تمكنت من تحديد البنية الأساسية للنماذج بدقة تصل إلى 97.6%، حتى من مسافة تصل إلى ستة أمتار، وفي بعض الحالات عبر الجدران، ما يثير مخاوف جدية بشأن أمن هذه الأنظمة.
تهديد جديد للأمن السيبراني يمثل هذا الاكتشاف تحولاً في مفهوم أمن الذكاء الاصطناعي، إذ لم يعد الخطر يقتصر على الهجمات البرمجية أو الاختراقات الشبكية، بل يمتد إلى الآثار الفيزيائية الناتجة عن عمليات الحوسبة نفسها.
وبالنسبة للشركات، قد يشكل ذلك خطراً مباشراً على الملكية الفكرية، حيث يمكن سرقة تصميم النماذج دون ترك أي أثر رقمي أو الحاجة إلى اختراق الأنظمة.
حلول معقدة وتحديات جديدة اقترح الباحثون عدداً من الإجراءات للحد من هذه المخاطر، مثل إضافة ضوضاء كهرومغناطيسية للتشويش على الإشارات، أو تعديل طريقة تنفيذ العمليات الحسابية لجعل الأنماط أقل قابلية للتحليل.
لكن هذه الحلول تشير إلى أن حماية أنظمة الذكاء الاصطناعي قد تتطلب تعديلات على مستوى العتاد (Hardware)، وليس فقط تحديثات برمجية، ما يزيد من تعقيد تأمين هذه الأنظمة، خاصة في البيئات التي تعتمد على بنى تحتية قائمة.
ويؤكد هذا التطور أن التهديدات المستقبلية قد لا تعتمد على اختراق الأنظمة بشكل مباشر، بل على مراقبة ما تكشفه الأجهزة بشكل غير مقصود، ما يفتح فصلاً جديداً في سباق الأمن السيبراني.
التعليقات
احذر .. تقنية جديدة لاختراق أنظمة الذكاء الاصطناعي
التعليقات