في تطور يسلّط الضوء على المخاطر المتزايدة للذكاء الاصطناعي التوليدي، تواجه شركة XAI دعوى قضائية جماعية في الولايات المتحدة، على خلفية اتهامات خطيرة تفيد بأن روبوتها Grok قام بتوليد صور ذات طابع إباحي لقاصرين دون علمهم أو موافقتهم.
وبحسب الشكوى التي قُدمت في 16 مارس، فإن عدداً من المراهقين اتهموا أداة Grok بإنشاء صور جنسية باستخدام وجوههم انطلاقاً من أوامر نصية بسيطة، في ظل غياب آليات رقابة كافية لمنع هذا النوع من الانتهاكات.
تشير المعطيات الواردة في الملف إلى أن بعض الصور المولدة قد تندرج ضمن محتوى إباحي يتعلق بقاصرين، ما يضع الشركة أمام مخاطر قانونية جسيمة، نظراً لصرامة القوانين الأمريكية في هذا المجال.
ويؤكد المدّعون أن هذه الممارسات تسببت لهم في ”ضرر معنوي بالغ”، خاصة مع احتمال تسريب هذه الصور أو تداولها عبر الإنترنت، بما يمس بسمعتهم وكرامتهم.
تركّز الدعوى على تحميل ”إكس إيه آي” المسؤولية المباشرة، متهمة إياها بعدم تطوير أنظمة حماية فعّالة تمنع إساءة استخدام تقنياتها، رغم أن مثل هذه المخاطر ”كانت متوقعة” في ظل سوابق مشابهة مرتبطة بتقنيات التزييف العميق .
ويرى خبراء أن القضية قد تتحول إلى اختبار قانوني حاسم يحدد حدود مسؤولية شركات الذكاء الاصطناعي عن المحتوى الذي تولده أنظمتها، خاصة فيما يتعلق بحماية الفئات الهشة.
تتجاوز تداعيات القضية الإطار القضائي، إذ تعكس أزمة ثقة متنامية في أدوات الذكاء الاصطناعي، القادرة على إنتاج محتوى واقعي انطلاقاً من بيانات محدودة.
وفي هذا السياق، تبرز تساؤلات حادة حول مدى التزام الشركات التكنولوجية بمسؤولياتها الأخلاقية، خصوصاً في ما يتعلق بحماية المستخدمين، ومنع توظيف هذه الأدوات في انتهاكات خطيرة.
ويرجّح متابعون أن تسرّع هذه القضية من وتيرة سنّ تشريعات أكثر صرامة لتنظيم الذكاء الاصطناعي، بما يشمل فرض معايير أعلى للرقابة، والتتبع، ومنع المحتوى غير القانوني.
وفي انتظار ما ستسفر عنه المعركة القضائية، تبدو ”إكس إيه آي” في قلب عاصفة قانونية قد تعيد رسم ملامح المسؤولية في عصر الذكاء الاصطناعي، وتدفع نحو الانتقال من منطق الابتكار السريع إلى منطق ”الابتكار المسؤول”.







