من ChatGPT إلى الأسلحة الكيميائية: سلبيات وإيجابيات GPT-4؟

قيم هذا المقال :
(6 الأصوات)

احتل GPT-4 من OpenAI، وهو نظام الذكاء الاصطناعي وراء chatbot الشهير ChatGPT، عناوين الصحف مؤخرًا بعد أن استخدمه مهندس كيميائي لاقتراح عامل أعصاب جديد، حيث كان المهندس أندرو وايت جزءًا من مجموعة من الخبراء الذين عينتهم شركة OpenAI لاستكشاف المخاطر المرتبطة بنشر أنظمة الذكاء الاصطناعي المتقدمة في المجتمع.

دفعت المجموعة المسماة "الجيش الأحمر" GPT-4 لاختبار حدوده وفهم مخاطرها المحتملة، وقد كان، حيث تم إختبار قدرة النموذج على الإجابة على أسئلة التحقيق أو الأسئلة الخطيرة المتعلقة بعلم السموم، والانتحال، والأمن القومي، والتلاعب اللغوي.

بينما أثار العديد من المختبرين مخاوف بشأن المخاطر المحتملة المرتبطة بربط نماذج اللغة بمصادر المعرفة الخارجية من خلال المكونات الإضافية، أكدت OpenAI للجمهور أنها أخذت الأمان على محمل الجد واختبرت المكونات الإضافية قبل إطلاقها، كما تم استخدام ملاحظات الجيش الأحمر أيضًا لإعادة تدريب النموذج ومعالجة مشاكله قبل طرح GPT-4 على نطاق أوسع.

على الرغم من جهود OpenAI لمعالجة المخاطر المرتبطة بالنموذج، أشار بعض أعضاء الجيش الأحمر، مثل Roya Pakzad وBoru Gollo إلى أن GPT-4 لا يزال يُظهر تحيزات ونغمات تمييزية، خاصة عند اختباره على الجنس والعرق واللغة، على الرغم من الانتقادات والشكاوى من مجموعات أخلاقيات التكنولوجيا، أطلقت OpenAI ميزة جديدة تسمى المكون الإضافي لـ ChatGPT، والتي تسمح للتطبيقات الشريكة بمنح ChatGPT إمكانية الوصول إلى خدماتهم.

يثير تطوير GPT-4 وأنظمة الذكاء الاصطناعي المتقدمة الأخرى أسئلة مهمة حول المخاطر المحتملة لنشر هذه الأنظمة في المجتمع، في حين أنها توفر أدوات أسرع وأكثر دقة للبحث والتطوير، فإنها تشكل أيضًا مخاطر كبيرة على السلامة العامة والأمن، على هذا النحو من الأهمية بمكان لشركات مثل OpenAI اتخاذ تدابير استباقية لمعالجة هذه المخاوف وضمان التطوير ونشر تكنولوجيا الذكاء الاصطناعي بشكل مسؤول.

 

 

قد يعجبك

 

مقالات ذات صلة جميع الأخبار