أكد أنوبام داتا، كبير علماء البحث ورئيس فريق أبحاث الذكاء الاصطناعي في شركة «سنوفليك» العالمية ل«الخليج»، أن تطبيقات الذكاء الاصطناعي مثل، المساعدين الافتراضيين وروبوتات الدردشة ومساعدي البرمجة والوكلاء المستقلين، تواصل انتشارها وتزداد أهميتها الكبيرة بين الشركات، ومع ذلك اتضحت سلبياتها مع الوقت.
وأضاف، بدءاً من الاستجابات غير المكتملة أو المسيئة أو غير الدقيقة (والتي يشار إليها غالباً بمصطلح «الهلوسة»)، إلى المخاطر الأمنية والإجابات العامة أو الخارجة عن السياق، تمثل هذه السلبيات حواجز تقف أمام تنفيذ هذه التقنيات وتبنيها على مستوى المؤسسات ككل، ولسبب وجيه للغاية.
مراقبة مصممة
ومثلما انتشرت المنصات والتطبيقات المستندة إلى السحابة وجلبت معها العديد من الأدوات المبتكرة المستخدمة لتقييم وتصحيح أخطاء ومراقبة وظائفها، يتطلّب التبني الواسع النطاق للذكاء الاصطناعي مجموعة مخصصة من أدوات المراقبة المصممة خصيصاً لتلبية متطلباتها الفريدة. وقال داتا: مع تأهب دولة الإمارات لتصبح ثالث أهم دولة في مجال دمج الذكاء الاصطناعي بفضل ما تتميز به من إمكانات هائلة للوصول إلى رأس المال وتسخير قوة الحوسبة والبيانات، أصبحت الحاجة إلى مراقبة الذكاء الاصطناعي أكثر إلحاحاً مما مضى.
وتتطلب التطبيقات التي تعمل بالذكاء الاصطناعي نفس مستوى الإشراف والإدارة مثل أي تطبيق آخر مهم لإنجاز عمليات الشركات. بعبارة أخرى، الذكاء الاصطناعي بحاجة إلى المراقبة.
فهم النظام
وعن المقصود بمراقبة الذكاء الاصطناعي وأين تتمحور أهميتها قال داتا: بصورة عامة، يُقصد بالمراقبة التقنيات والممارسات المستخدمة لفهم المنظومة التقنية أو المنصة أو التطبيق.
وبالنسبة للتطبيقات التي تعمل بالذكاء الاصطناعي على وجه التحديد، تشير المراقبة إلى فهم جميع جوانب النظام، من البداية إلى النهاية.
جودة المدخلات
وتساعد المراقبة، الشركات على تقييم ومراقبة جودة المدخلات والمخرجات والنتائج التي تقدّمها التطبيقات القائمة على النماذج اللغوية الكبيرة، كما تساعد في تحديد وتشخيص الهلوسة والتحيز والسلبية، فضلاً عن جوانب الأداء والتكلفة.
وتابع داتا: نحن بحاجة إلى مراقبة الذكاء الاصطناعي، لأن قيود التكنولوجيا بدأت تظهر في اللحظة التي أصبحت بها هذه التكنولوجيا محورية ولا غنى لنا عنها، والشركات لا تتقبّل هذه القيود.
أنصح طلابي باعتبار إجابات النماذج اللغوية الكبيرة مجرّد هلوسات ما لم يثبت العكس، والسبب وراء ذلك هو أن النماذج اللغوية الكبيرة قد تمّ تدريبها على التعميم من نصوص ضخمة، وتوليد نص جديد على غرار الأنماط العامة الموجودة في النصوص الذي تدربت عليها. باختصار، لم يتم تصميم النماذج اللغوية الكبيرة لحفظ الحقائق.
ولكن عندما يتم استخدام النماذج اللغوية الكبيرة بدلاً من محركات البحث، يتعامل معها بعض المستخدمين على أمل أن تقدّم لهم نتائج دقيقة ومفيدة.
وإذا فشل الذكاء الاصطناعي في القيام بذلك، تتقوّض أساسات الثقة. أحد الأمثلة الشهيرة على ذلك: تم تغريم محاميين لتقديمهما موجزاً قانونياً كتبه الذكاء الاصطناعي، واستشهد بقضايا غير موجودة.
مخاطر أمنية
وقال داتا: إن الهلوسة، المخاطر الأمنية، والإجابات غير الصحيحة تقوّض الثقة التي تحتاج إليها الشركات في التطبيقات التي تعمل بالذكاء الاصطناعي، وتشكل حواجز أمام جلب التقنيات إلى بيئة الإنتاج. ومن جهة أخرى، إذا قدّمت النماذج اللغوية الكبيرة إجابات غير مناسبة، فإنها تضر بقدرة المستهلكين على الثقة في الشركة نفسها، مما يتسبب في إلحاق الضرر بالشركة، تتزايد أهمية المراقبة لأي شركة تستخدم تطبيقات الذكاء الاصطناعي.
وأوضح داتا أنه ومع شروع الشركات بدمج تطبيقات الذكاء الاصطناعي في عملية الإنتاج، يجب أن تتوقع وتطالب بنتائج أكثر من جيدة.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة صحيفة الخليج ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من صحيفة الخليج ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.