في عالم الذكاء الاصطناعي بالعربية، تواجه البوتات الذكية تحديات في مواجهة التلاعب بها من خلال تعليمات غير مصرح بها. لحل هذه المشكلة، طور باحثون في OpenAI تقنية جديدة تسمى “ترتيب التعليمات”، والتي تعزز من مقاومة النماذج الذكاء الاصطناعي للتلاعب والتعليمات غير المصرح بها. تعتمد هذه التقنية على إعطاء التعليمات الأصلية للمطورين الأولوية، مما يمنع الهجمات مثل “تجاهل جميع التعليمات السابقة”. النموذج الأول الذي سيتم تطبيق هذه التقنية عليه هو GPT-4o Mini، وهو نموذج أخف وأرخص من غيره. تهدف هذه التحديثات الأمنية إلى تعزيز ثقة المستخدمين في النماذج الذكاء الاصطناعي، خاصة قبل طرح وكلاء مؤتمتين بمقاييس كبيرة.
Related Posts
تأجيل شركة نفيديا لشريحتها الذكاء الاصطناعي القادمة بسبب خطأ في التصميم
تقريرًا جديدًا يشير إلى أن شركة Nvidia قد أبلغت شركة مايكروسوفت ومقدم خدمة سحابية آخر على الأقل أن…
جهاز PS5: تخصيص تجربة صوتية ثلاثية الأبعاد
اكتشف كيف تتيح لك أحدث نسخة تجريبية لجهاز PS5 تخصيص الصوت ثلاثي الأبعاد للحصول على تجربة ألعاب غامرة!
إنستغرام يُطلق تعليقات مؤقتة تختفي بعد 3 أيام!
أضاف إنستغرام ميزة "ملاحظات" للتعليقات المؤقتة على الريلز والمنشورات, مما يعزز الخصوصية والتفاعل المباشر.