كشفت دراسة متعمقة، نشر تفاصيلها موقع “تايمز نيوز ناو” عن أن غوغل تشدد الرقابة على أبحاث علمائها، وتجبرهم على عدم التطرق إلى “مواضيع حساسة” قد تسبب نظرة “سلبية” لدى مستخدمي الإنترنت من تقنيات الذكاء الصناعي، أو تسبب مشاكل مع دول وحكومات.
ونقلت الدراسة مقابلات سرية مع باحثين داخل “غوغل”، تظهر رفض عدد هائل من الاختراعات، ومطالبتهم بأن تأخذ أبحاثهم منحى إيجابي يحسن نظرة الناس للذكاء الصناعي.
وتطلب إجراءات المراجعة الجديدة في غوغل من الباحثين التشاور مع فرق الشؤون القانونية والسياسة والعلاقات العامة، قبل متابعة مواضيع مثل تحليل الوجه والمشاعر وتصنيفات العرق أو الجنس أو الانتماء السياسي .
وأظهرت منشورات داخلية في غوغل أيضاً أن إدارة الشركة الأمريكية طالبتهم بتفهم أن تعقيدات التكنولوجيا أكبر في البيئة الخارجية، وعليها أن تبدو غير مسيئة أخلاقياً أو تضر بسمعة الشركة أو تدخلها في مشاكل تنظيمية أو قانونية مع الحكومات.
وقال عدد من الباحثين داخل غوغل إن تلك السياسة الجديدة بدأت تطبيقها منذ يونيو/حزيران الماضي.
ورفض مسؤولو شركة غوغل التعليق على تلك التقارير، ولكن صرحت “غوغل” عبر موقعها العام إن علمائها يتمتعون بـ”حرية كبيرة”.
ويضيف ثمانية موظفين حاليين وسابقين أن عملية “الموضوعات الحساسة”، تضيف عبئاً إضافياً على الباحثين والعلماء، حيث تدخلهم في جولة من التدقيق إلى مراجعة غوغل القياسية للأوراق البحثية، بحثاً عن عيوب مثل الكشف عن الأسرار التجارية.