«غوغل» ستوقع اتفاقية مع «ميتا» بشأن مدونة السلوك الأوروبية للذكاء الاصطناعي

أعلنت «غوغل» الأربعاء أنها ستوقّع على مدونة قواعد السلوك الخاصة بنماذج الذكاء الصناعي الخاصة بالاتحاد الأوروبي، على عكس «ميتا».
وقال رئيس الشؤون العالمية في «غوغل» كينت ووكر «سننضم إلى الكثير من الشركات الأخرى في التوقيع على مدونة قواعد السلوك الخاصة بالاتحاد الأوروبي للذكاء الصناعي المخصص للاستخدام العام»، وفقا لوكالة «فرانس برس».
وسبق لشركة «أوبن إيه آي» مبتكرة «تشات جي بي تي» ولشركة «ميسترال» الفرنسية الناشئة أن أعلنتا عن توقيعهما على مدونة السلوك هذه، بينما صرحت «ميتا» (فيسبوك، إنستغرام وسواهما)، وهي من أشد منتقدي القواعد الرقمية الأوروبية، بأنها لن تفعل ذلك.
ونُشرت هذه التوصيات الأوروبية في 10 يوليو، وهي تتناول أحدث نماذج الذكاء الصناعي، مثل «تشات جي بي تي»، وتركز بشكل خاص على قضايا حقوق النشر.
– أرباح «غوغل» في الربع الثاني تجاوزت التوقعات ببلوغها 28.2 مليار دولار
– «غوغل» تقدم للقضاء الأميركي حججها المناهضة لبيع متصفح «كروم»
– «غوغل» تدفع 1.4 مليار دولار لتسوية دعوى بانتهاك خصوصية المستخدمين
ويدعو الاتحاد الأوروبي إلى استبعاد المواقع المعروفة بأعمال القرصنة المتكررة من الذكاء الصناعي، ويطلب من الموقعين الالتزام بالتحقق من أن نماذجهم لا تحتوي على مضامين مسيئة أو عنيفة.
وصُممت هذه التوصيات لنماذج الذكاء الصناعي المخصصة للاستخدام العام، مثل «تشات جي بي تي» و«غروك» من منصة «إكس»، و«جيميناي» من «غوغل».
«عبء إداري مُخفّف»
واستحوذت «غروك» على اهتمام إعلامي واسع أخيرا لنشرها مواقفة متطرفة ومسيئة. واعتذرت شركة «إكس إيه آي» الناشئة المملوكة لإيلون ماسك والمسؤولة عن «غروك» عن «السلوك الفظيع» لبرنامجها المخصص للدردشة.
ورغم كون هذه «المدونة» غير مُلزمة، ستستفيد الشركات الموقعة عليها من «عبء إداري مُخفّف» عند إثبات امتثالها للتشريعات الأوروبية للذكاء الصناعي، وفقا لما وعدت به المفوضية الأوروبية.
وأثار هذا التشريع الذي سمّيَ «قانون الذكاء الصناعي»، غضب شركات التكنولوجيا العملاقة، التي دعت مرارا وتكرارا إلى تأجيل تنفيذه.
وكررت «غوغل» الأربعاء أن القواعد الأوروبية «قد تؤدي إلى إبطاء تطوير الذكاء الصناعي في أوروبا».
لكنّ المفوضية أبقت على جدولها الزمني، إذ يبدأ التنفيذ في 2 أغسطس، ويدخل معظم المتطلبات حيز التنفيذ بعد عام.
وأكدت المفوضية أنها تسعى إلى الحد من تجاوزات الذكاء الصناعي مع تجنب خنق الابتكار. ولهذا السبب، تُصنّف الأنظمة وفقا لمستوى خطورتها، مع فرض قيود تتناسب مع مستوى الخطورة.
وستخضع التطبيقات العالية المخاطر، المستخدمة على سبيل المثال في البنية التحتية الحيوية، والتعليم، والموارد البشرية، وإنفاذ القانون، لمتطلبات أكثر صرامة بحلول سنة 2026 قبل أي ترخيص تسويق في أوروبا.