الخميس 28 مارس 2024 أبوظبي الإمارات
مواقيت الصلاة
أبرز الأخبار
عدد اليوم
عدد اليوم

غوغل لن تستخدم الذكاء الاصطناعي لصنع أسلحة

غوغل لن تستخدم الذكاء الاصطناعي لصنع أسلحة
8 يونيو 2018 17:23
سان فرانسيسكو(أ ف ب) أكدت غوغل أنها لن تستخدم الذكاء الاصطناعي من أجل تطوير الأسلحة أو "التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس" مع نشر جملة من المبادئ المتصلة بهذه التكنولوجيا.  وقال رئيس غوغل التنفيذي سوندار بيتشاي في مدونة فصَّل فيها، يوم الخميس، سياسة الشركة في مجال الذكاء الاصطناعي إنه حتى وإن كانت غوغل لن تستخدم الذكاء الاصطناعي لصنع أسلحة، "فإننا سنواصل العمل مع الحكومات والجيش في مجالات عديدة أخرى"، بما فيها الأمن المعلوماتي والتدريب والبحث والانقاذ.  واجهت غوغل ضغوطاً من موظفيها ومن جهات خارجية بشأن عقد مع الجيش الأميركي قالت الشركة ومقرها كاليفورنيا أنه لن يُجدد.  وحدد بيتشاو سبعة مبادئ تسترشد بها غوغل في تطبيق الذكاء الاصطناعي أو الحوسبة المتقدمة التي تحاكي السلوك البشري الذكي.  وقال إن غوغل تستخدم الذكاء الاصطناعي من أجل "مساعدة الناس على حل مشكلات عاجلة" مثل التنبؤ بحدوث حرائق ومساعدة المزارعين وتشخيص الأمراض أو تفادي الإصابة بالعمى.  وأضاف في مدونته "نحن نقر بأن هذه التكنولوجيا القوية تطرح أسئلة قوية بالمثل بشأن استخداماتها.  إن طريقة تطوير الذكاء الاصطناعي واستخدامه سيكون لها تأثير كبير على المجتمع لعدة سنوات قادمة، وكقادة في مجال الذكاء الاصطناعي، نشعر بأن لدينا مسؤولية كبيرة في أن نفعل الأمر بصورة صحيحة".  وقال بيتشاو إن برامج الذكاء الاصطناعي لدى غوغل ستصمم من أجل تطبيقات "مفيدة اجتماعياً" و"تفادي إحداث أو تعزيز التحيز غير المنصف".  وقال أن المبادئ تركز على أن يتم "تصميم واختبار" تطبيقات الذكاء الاصطناعي بحيث تضمن "السلامة" و"تتحمل المسؤولية إزاء الناس" و"تتضمن مبادئ حماية الخصوصية".  وكتب أن غوغل ستتفادى استخدام أي تكنولوجيا "تتسبب أو يمكن أن تسبب بضرر عام".  وهذا يعني عدم تطوير "أسلحة أو تكنولوجيات أخرى الغاية الرئيسية منها أو من تطبيقها التسبب أو تسهيل التسبب بصورة مباشرة بإيذاء الناس" وأنظمة "تجمع أو تستخدم المعلومات من أجل المراقبة وتنتهك الأعراف المتفق عليها دولياً".
جميع الحقوق محفوظة لمركز الاتحاد للأخبار 2024©