Business

البيت الأبيض يحث صناعة التكنولوجيا على إغلاق السوق المتزايدة للإساءة الجنسية باستخدام التركيبات العميقة للذكاء الاصطناعي

تحاول إدارة الرئيس جو بايدن دفع صناعة التكنولوجيا والمؤسسات المالية لإغلاق سوق متزايدة من الصور الجنسية المسيئة التي تتم إنشاؤها باستخدام تكنولوجيا الذكاء الاصطناعي.

أدوات الذكاء الاصطناعي الجيل الجديد قد جعلت من السهل تحويل صورة شخص ما إلى تركيبة عميقة للذكاء الاصطناعي ذات طابع جنسي ومشاركة تلك الصور الواقعية في غرف الدردشة أو وسائل التواصل الاجتماعي. الضحايا — سواء كانوا مشاهير أو أطفال — لديهم قليل من الوسيلة لوقف ذلك.

البيت الأبيض يطلب يوم الخميس التعاون التطوعي من الشركات في غياب تشريعات فدرالية. عن طريق الالتزام بمجموعة من التدابير المحددة، يأمل المسؤولون أن يمكن للقطاع الخاص الحد من خلق، نشر وتحقيق ربح من صور الذكاء الاصطناعي التي لم يتم الاتفاق عليها، بما في ذلك صور أطفال صريحة.

قالت مستشارة العلوم الرئيسية لبايدن اراتي برابهكار مديرة مكتب السياسة للعلوم والتكنولوجيا في البيت الأبيض: “عندما ظهر الذكاء الاصطناعي الجيل، كان الجميع يتكهن عن حيث ستأتي أول الأضرار الحقيقية. وأعتقد أن لدينا الجواب”.

وصفت لوكالة الصحافة المقربة من صحيفة AP “تسارعًا هائلًا” للصور اللاإرادية المغذاة بأدوات الذكاء الاصطناعي والتي تستهدف بشكل كبير النساء والفتيات بطريقة يمكن أن تقلب حياتهن رأسا على عقب.

...

وقد جاء ذلك بعد أن وقع بايدن أمرًا تنفيذيًا طموحًا في أكتوبر يهدف إلى توجيه كيفية تطوير الذكاء الاصطناعي حتى تتمكن الشركات من تحقيق الربح دون المساس بالسلامة العامة. بينما كان التركيز على مخاوف الذكاء الاصطناعي الأخرى، بما في ذلك الأمن القومي، إلا أنه أشار إلى المشكلة الناشئة للصور الاباحية التي تستخدم تقنية الذكاء الاصطناعي والنهوض بطرق أفضل لاكتشافها.

ومع ذلك، قال بايدن أيضًا إن هذه الضمانات للذكاء الاصطناعي بحاجة إلى دعم من التشريعات. والآن يحاول مجموعة من أعضاء مجلس الشيوخ الأمريكيين دفع الكونغرس لإنفاق مبلغ لا يقل عن 32 مليار دولار خلال الثلاث سنوات القادمة لتطوير الذكاء الاصطناعي وتمويل تدابير لتوجيهه بأمان، على الرغم من أنهم لم يحددوا إقرار تلك الضمانات في قوانين.

...

لكنه لفت إلى أنه لا يوجد تقريبًا رقابة على الأدوات والخدمات التكنولوجية التي تجعل من الممكن إنشاء مثل تلك الصور. بعضها على مواقع تجارية ليلية مشتركة تكشف عن قليل من المعلومات حول من يديرها أو التكنولوجيا التي تقوم عليها.

سلطت مرصد الإنترنت التابع لجامعة ستانفورد في ديسمبر الضوء على الآلاف من الصور المشتبه فيها بالاعتداء الجنسي على الأطفال في قاعدة بيانات الذكاء الاصطناعي العملاقة LAION، وهي فهرس للصور والتسميات على الإنترنت تم استخدامه لتدريب أبرز منتجي الصور بتقنية الذكاء الاصطناعي مثل Stable Diffusion.

قالت شركة Stability AI المقرة في لندن التي تمتلك أحدث إصدارات Stable Diffusion هذا الأسبوع إنها “لم توافق على الإصدار” السابق الذي قال يُقال إن الرجل الويسكونسني استخدمه. هذه الموديلات ذات المصدر المفتوح، لأن مكوناتها التقنية تطرح علناً على الإنترنت، من الصعب وضع عود الزجاج في الزجاجة.

قالت برابهكار إنه ليس الذكاء الاصطناعي مفتوح المصدر فقط الذي يسبب الضرر. وقالت: “إنه مشكلة أوسع نطاقًا. للأسف، هذه فئة يبدو أن الكثير من الناس يستخدمون مُنتجي الصور لها. وهو مكان رأينا فيه تفجيرًا كبيرًًًا، ولكن أعتقد أنه ليس من السهل تقسيمه إلى أنظمة ذات مصدر مفتوح وخاصة.”

——

ساهم الكاتب جوش بواك في هذا التقرير.

Related Articles

Back to top button