لطالما كانت شرعية الممارسات التجارية لصناعة الذكاء الاصطناعي سؤالاً معلقة. باعتبارها تقنية جديدة “التخريبية” ، تسببت الذكاء الاصطناعي في ثروة من المشاكل في نفس الوقت الذي قدم فيه للمجتمع مزايا جديدة. والجدير بالذكر أن الذكاء الاصطناعى قد استخدمت لتضليل المستهلكين ، وإنشاء أشكال جديدة من المعلومات المضللة والدعاية ، والتمييز ضد مجموعات معينة من الناس. الآن ، أصدر مكتب المدعي العام في كاليفورنيا مذكرة قانونية تؤكد على حقيقة أن كل هذه الأشياء ربما تكون غير قانونية.
في 13 كانون الثاني (يناير) ، أصدرت كاليفورنيا AG Rob Bonta نصيحة قانونية توضح جميع المناطق التي لا تعد ولا تحصى حيث يمكن أن تواجه صناعة الذكاء الاصطناعى نفسها. يقول الاستشاري: “يشجع” Aight “الاستخدام المسؤول لمنظمة العفو الدولية بطرق آمنة وأخلاقية ومتسقة مع الكرامة البشرية”. “لكي تحقق أنظمة الذكاء الاصطناعى إمكاناتها الإيجابية دون إلحاق الأذى ، يجب تطويرها واستخدامها من الناحية الأخلاقية والقانونية” ، قبل أن تتوافق مع العديد من الطرق التي يمكن أن تحطم بها شركات الذكاء الاصطناعي القانون.
بعض هذه الطرق تشمل:
- باستخدام الذكاء الاصطناعى إلى “تعزيز أو خداع متقدم.” إذا لم تكن قد لاحظت ، فإن الإنترنت غارق حاليًا في تسونامي حقيقي من المحتوى المزيف. لقد انفجرت المخاوف بشأن جيل جديد من Deepfakes والمعلومات المضللة منذ أن أصبحت مولدات محتوى الذكاء الاصطناعي شائعة – وسبب وجيه. توضح مذكرة كاليفورنيا أن الشركات التي تستخدم الذكاء الاصطناعى لإنشاء “Deepfakes ، و Chatbots ، والاستنساخ الصوتية التي يبدو أنها تمثل الأشخاص والأحداث والكلمات التي لم تكن موجودة” يمكن أن تندرج تحت فئة “خادعة” ، وبالتالي ، تعتبر خرقًا قانون الولاية.
- الإعلان زوراً “دقة أو جودة أو فائدة أنظمة الذكاء الاصطناعى”. كان هناك الكثير ، هل نقول ، غلو، عندما يتعلق الأمر بصناعة الذكاء الاصطناعى وما تدعي أنه يمكن أن ينجزه مقابل ما يمكن أن ينجزه بالفعل. يقول مكتب بونتا إنه لابتعد عن قانون الإعلانات الخاطئة في كاليفورنيا ، يجب على الشركات الامتناع عن “الادعاء بأن نظام الذكاء الاصطناعى لديه قدرة لا ؛ تمثل أن النظام مدعوم بالكامل من قبل الذكاء الاصطناعي عندما يكون البشر مسؤولين عن أداء بعض وظائفه ؛ يمثلون أن البشر مسؤولون عن أداء بعض وظائف النظام عندما تكون الذكاء الاصطناعي مسؤولاً بدلاً من ذلك ؛ أو المطالبة دون أساس أن النظام دقيق ، أو أداء مهام أفضل من شأن الإنسان ، أو يحدد خصائص ، ويلبي الصناعة أو المعايير الأخرى ، أو خالية من التحيز. “
- قم بإنشاء أو بيع نظام AI أو منتج “له تأثير سلبي أو غير متناسب على أعضاء فئة محمية ، أو إنشاء أو تعزيز أو إدامة التمييز أو الفصل بين أعضاء فئة محمية.“ لقد ثبت أن أنظمة الذكاء الاصطناعي تدمج التحيز البشري في خوارزمياتها ، وهذا أمر مزعج بشكل خاص عندما تفكر في أن الذكاء الاصطناعى يتم استخدامه الآن لفحص الأشخاص لفرص الإسكان والتوظيف. يلاحظ مكتب بونتا أن الأنظمة الآلية التي لها تأثيرات متباينة على مجموعات مختلفة من الناس يمكن أن تتعارض مع قوانين مكافحة التمييز في الولاية.
يتضمن استشارات بونتا أيضًا قائمة بالوائح التي تم إقرارها مؤخرًا تتعلق بصناعة الذكاء الاصطناعي. حقيقة أن الاستشارية تقول إن جميع هذه الأنشطة “قد” قد تحطم القانون تشير إلى أن الشركات يجب أن تبيع بشكل فعال ، خشية أن تبتعد عن الأراضي الإجرامية وإغراء الدولة لاتخاذ إجراءات ضدها.
توضح مذكرة بونتا بوضوح ما تمثله مجموعة قانونية قانونية ، على الرغم من أنها لا تتجه إلى ذكر قانون حقوق الطبع والنشر لنا ، وهو منطقة رمادية قانونية أخرى حيث تواجه شركات الذكاء الاصطناعي دائمًا مشكلة. في الوقت الحالي ، يتم رفع دعوى على مقاضاة Openai من قبل صحيفة نيويورك تايمز ، التي اتهمت الشركة بكسر قانون حقوق الطبع والنشر الأمريكية باستخدام مقالاتها لتدريب خوارزمياتها. لقد تم رفع دعوى ضد شركات الذكاء الاصطناعى مرارًا وتكرارًا على هذه القضية ، ولكن لأن غزو الذكاء الاصطناعي في توليد المحتوى يمثل أراضي قانونية غير مستقرة إلى حد كبير ، لم تنجح أي من هذه الدعاوى القضائية بعد.