غوغل تعدل مبادئها الأخلاقية بشأن الذكاء الاصطناعي وتفتح الباب لتطوير تقنيات قد تُستخدم في المراقبة والأسلحة

تراجعت شركة غوغل عن تعهدها السابق بعدم استخدام الذكاء الاصطناعي في تطوير أسلحة أو أدوات مراقبة، حيث قامت بتحديث مبادئها الأخلاقية المتعلقة بهذه التكنولوجيا. وقد أعلنت الشركة أنها لم تعد ملزمة بتجنب تطوير التقنيات التي قد تتسبب في ضرر عام، حسب تقرير لموقع “سي إن بي سي”.
وكانت النسخة السابقة من مبادئ غوغل تؤكد على رفضها تسخير الذكاء الاصطناعي في تطوير أسلحة أو تقنيات قد تُلحق الأذى بالأفراد، سواء بشكل مباشر أو غير مباشر، بالإضافة إلى الامتناع عن استخدام تقنيات جمع المعلومات لأغراض المراقبة.
وفي منشور على مدونة الشركة، أوضح ديميس هاسابيس، الرئيس التنفيذي لشركة “غوغل ديب مايند”، أن المنافسة العالمية على قيادة الذكاء الاصطناعي أصبحت أكثر حدة في سياق جيوسياسي معقد، مضيفًا أن الديمقراطيات يجب أن تقود تطوير هذه التكنولوجيا وفقًا لقيم أساسية مثل الحرية والمساواة واحترام حقوق الإنسان.
وأشار هاسابيس إلى أن تحديث مبادئ الذكاء الاصطناعي يعكس ضرورة حماية الأمن القومي في ظل التحولات العالمية المستمرة.
من الجدير بالذكر أن غوغل كانت قد أصدرت مبادئها المتعلقة بالذكاء الاصطناعي في عام 2018، بعد رفضها تجديد عقد حكومي خاص بمشروع “مافن”، الذي استخدم الذكاء الاصطناعي لتحليل مقاطع فيديو الطائرات بدون طيار. وقد قوبل المشروع بمعارضة شديدة من قبل موظفي الشركة الذين وقعوا على عريضة ضد المشروع، مما دفع العديد منهم للاستقالة.
وتمثل المبادئ المحدثة تطورًا في توجهات الشركة لزيادة استخدام تقنياتها في مجال الذكاء الاصطناعي لتلبية احتياجات عملاء مختلفين، بما في ذلك الحكومات. كما أنها تتماشى مع تصريحات من قادة وادي السيليكون حول السباق بين الولايات المتحدة والصين في هذا المجال.
وأكدت غوغل أنها ستظل ملتزمة بالقانون الدولي وحقوق الإنسان، وأنها ستعمل على ضمان أن تكون تطبيقات الذكاء الاصطناعي ذات فائدة أكبر وضرر أقل.