24 ديسمبر 2024, 1:26 مساءً
في عالم يتسارع فيه التطور التكنولوجي، يبرز الذكاء الاصطناعي كقوة دافعة للتغيير في مختلف جوانب حياتنا. من بين هذه التطورات تظهر أدوات البحث الذكية كـ"شات جي بي تي" التابعة لشركة "أوبن أيه أي"، التي تعد بثورة في طريقة الوصول إلى المعلومات، إلا أن تحقيقًا صحفيًّا أجرته صحيفة "الجارديان" كشف عن جوانب مظلمة لهذه التقنية؛ حيث أظهرت الاختبارات إمكانية التلاعب بها واستخدامها في نشر معلومات مضللة وحتى أكواد خبيثة. هذا التحقيق يطرح تساؤلات جدية حول مدى أمان هذه الأدوات وإمكانية الوثوق بها.
خطر المحتوى الخفي
وأحد أبرز المخاطر التي كشف عنها التحقيق هو إمكانية التلاعب باستجابات "شات جي بي تي" من خلال استخدام "المحتوى المخفي"، ويتضمن هذا الأسلوب إخفاء نصوص أو تعليمات برمجية داخل صفحات الويب، بحيث لا يراها المستخدم العادي، لكنها تؤثر على طريقة استجابة أداة الذكاء الاصطناعي. يمكن أن تتضمن هذه التعليمات توجيه "شات جي بي تي" لإعطاء تقييمات إيجابية لمنتجات معينة، حتى لو كانت هناك مراجعات سلبية حقيقية على نفس الصفحة. هذا يكشف عن ثغرة خطيرة في آلية عمل الأداة؛ حيث يمكن استغلالها للتضليل والتأثير على آراء المستخدمين.
ولم يقتصر الأمر على التلاعب بالمعلومات، بل كشف التحقيق أيضًا عن إمكانية استخدام "شات جي بي تي" لنشر أكواد خبيثة. وجد باحثون أمنيون أن الأداة قادرة على إرجاع أكواد ضارة من المواقع التي تبحث عنها؛ مما يعرض المستخدمين لخطر الاختراق وسرقة البيانات. هذا يشكل تهديدًا حقيقيًّا للأمن السيبراني؛ حيث يمكن استغلال هذه الثغرة لشنّ هجمات إلكترونية واسعة النطاق.
وقامت "الجارديان" بإجراء سلسلة من الاختبارات للتحقق من هذه المخاطر. في أحد الاختبارات تم إعطاء "شات جي بي تي" رابطًا لموقع ويب وهمي مصمم ليبدو كصفحة منتج لكاميرا. طُلب من الأداة تقييم ما إذا كانت الكاميرا تستحق الشراء؛ في الحالة الطبيعية أعطت الأداة تقييمًا متوازنًا، مع الإشارة إلى بعض الميزات الإيجابية والسلبية. لكن عندما تم تضمين نص مخفي يحتوي على تعليمات للأداة بإعطاء تقييم إيجابي، تغيرت الاستجابة بشكل كامل وأصبحت إيجابية بشكل مبالغ فيه، بغض النظر عن وجود مراجعات سلبية حقيقية على الصفحة.
تحذيرات سيبرانية
أظهرت الاختبارات أن مجرد وجود نص مخفي، حتى بدون تعليمات مباشرة، يمكن أن يؤثر على استجابة "شات جي بي تي". في أحد الاختبارات تم تضمين مراجعات وهمية إيجابية للغاية في النص المخفي؛ ممّا أدّى إلى تحيز ملخص الأداة بشكل كبير. هذا يكشف عن مدى سهولة التلاعب بهذه الأداة واستغلالها لنشر معلومات مضللة.
وحذّر خبراء الأمن السيبراني من خطورة هذه الثغرات، مؤكِّدين على أن إطلاق هذه الأداة للجمهور في وضعها الحالي يشكل خطرًا كبيرًا. يعتقد الخبراء أن هناك احتمالًا كبيرًا لقيام بعض الأفراد بإنشاء مواقع ويب مصممة خصيصًا لخداع المستخدمين من خلال استغلال هذه الثغرات. ومع ذلك أشار الخبراء أيضًا إلى أن هذه التقنية لا تزال في مراحلها الأولى، وأن شركة "أوبن أيه أي" تعمل على اختبارها وتطويرها، ومن المتوقع أن يتم إصلاح هذه المشاكل قبل إطلاقها بشكل كامل للجمهور.
وتتجاوز هذه المشاكل مجرد أداة "شات جي بي تي"، بل تطرح تساؤلات أوسع حول دمج البحث مع نماذج اللغة الكبيرة، وهي التقنية التي تعتمد عليها هذه الأدوات. يحذر الخبراء من أنه لا ينبغي الوثوق بشكل كامل باستجابات أدوات الذكاء الاصطناعي؛ حيث إنها قد تحتوي على معلومات مضللة أو خبيثة. تم تسليط الضوء على مثال حديث لهذا الأمر من قبل باحث أمني في مايكروسوفت؛ حيث تم استخدام "شات جي بي تي" لإنشاء كود برمجي لمشروع عملة مشفرة، لكن الكود تضمن جزءًا خبيثًا أدى إلى سرقة بيانات المستخدم.
ليست مرجعًا موثوقًا
ويقترح الخبراء التعامل مع أدوات الذكاء الاصطناعي كـ"طيار مساعد" فقط، وليس كمرجع موثوق به بشكل كامل. يجب فحص مخرجات هذه الأدوات بعناية قبل استخدامها؛ حيث إنها قد تحتوي على أخطاء أو معلومات مضلِّلة. يصف الخبراءُ نماذجَ اللغة الكبيرة بأنها "واثقة جدًّا، تشبه الطفولة مع ذاكرة هائلة، ولكن القليل جدًّا من القدرة على اتخاذ قرارات".
ويطرح هذا التحقيق سؤالًا مهمًّا حول كيفية تأثير هذه الثغرات على ممارسات المواقع على الويب ومخاطر المستخدمين إذا أصبح دمج البحث ونماذج اللغة الكبيرة أكثر انتشارًا. تاريخيًّا: كانت محركات البحث تعاقب المواقع التي تستخدم النص المخفي، لكن مع ظهور أدوات الذكاء الاصطناعي قد تتغير هذه الممارسات. يرى الخبراء أن التحدي الذي يواجه أدوات البحث المدعومة بالذكاء الاصطناعي يشبه "التسمم"؛ حيث يحاول المخترقون التلاعب بنتائج البحث.
ويكشف هذا التحقيق عن تحديات كبيرة تواجه أدوات البحث الذكية مثل "شات جي بي تي". من الضروري أن تتّخذ الشركات المطورة لهذه التقنيات إجراءات فعالة لمعالجة هذه الثغرات قبل إطلاقها للجمهور بشكل كامل. على المستخدمين أيضًا توخّي الحذر عند استخدام هذه الأدوات والتحقق من صحة المعلومات التي يحصلون عليها.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة سبق الإلكترونية ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة سبق الإلكترونية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.