خطر على البشرية.. عاملون في الذكاء الاصطناعي يحذرون منه
مع التطور السريع للذكاء الاصطناعي ودخوله في مجالات شتى، حذر موظفون حاليون وسابقون في عملاق البحث “غوغل” و “OpenAI” t في رسالة مفتوحة من مخاطر هذه التقنية.
فقد أكدت رسالة مفتوحة لمجموعة مكونة من 11 موظفاً حالياً وسابقاً في OpenAI وموظف حالي وآخر سابق في “غوغل” أن الدوافع المالية لشركات الذكاء الاصطناعي تعيق الرقابة الفعالة.
“انقراض البشرية”
وحذرت الرسالة كذلك من المخاطر الناجمة عن الذكاء الاصطناعي غير المنظم، بدءا من انتشار المعلومات المضللة إلى فقدان أنظمة الذكاء الاصطناعي المستقلة وتعميق عدم المساواة القائمة، مما قد يؤدي إلى “انقراض البشرية”.
كما وجد الباحثون أمثلة لمولدات الصور من شركات بما في ذلك OpenAI وMicrosoft التي تنتج صوراً تحتوي على معلومات مضللة متعلقة بالتصويت، على الرغم من السياسات ضد هذا المحتوى.
“التزامات ضعيفة”
وجاء في الرسالة أن شركات الذكاء الاصطناعي لديها “التزامات ضعيفة” فيما يتعلق بمشاركة المعلومات مع الحكومات حول قدرات أنظمتها والقيود المفروضة عليها، مضيفة أنه لا يمكن الاعتماد على هذه الشركات لمشاركة تلك المعلومات طوعا.
وتعد الرسالة المفتوحة هي الأحدث التي تثير مخاوف تتعلق بالسلامة حول تكنولوجيا الذكاء الاصطناعي التوليدية، والتي يمكنها إنتاج نصوص وصور وصوت يشبه الإنسان بسرعة وبتكلفة زهيدة.
إلى ذلك حثت المجموعة شركات الذكاء الاصطناعي على تسهيل العملية على الموظفين الحاليين والسابقين لإثارة المخاوف المتعلقة بالمخاطر وعدم فرض اتفاقيات السرية عليهم والتي تحظر النقد.
“أنشطة خادعة”
وبشكل منفصل، قالت الشركة التي يقودها سام ألتمان يوم الخميس إنها عطلت خمس عمليات تأثير سرية سعت إلى استخدام نماذج الذكاء الاصطناعي الخاصة بها في “أنشطة خادعة” عبر الإنترنت.
يذكر أن الذكاء الاصطناعي تطور بطريقة سريعة خلال السنتين الماضيتين، فأصبح بمقدوره أن يحل في وظائف كانت تقتصر على البشر، بل بات باستطاعته إنتاج صور تبدو حقيقية وتقليد الأصوات وغيرها من الأمور التي لم تكن في عالم التكنولوجيا خلال السنوات الماضية
العربية