أصدر الرئيس بايدن هذا الأسبوع أمرًا تنفيذيًا شاملاً بشأن الذكاء الاصطناعي يسعى لمعالجة التهديدات التي يمكن أن تتسبب بها هذه التكنولوجيا، لكن بعض الخبراء يقولون إن اللوائح لم تجب عن أسئلة حول كيفية عملها في الممارسة العملية.
يكلف الأمر الوكالات بإعادة النظر في نهجها تجاه الذكاء الاصطناعي ويهدف إلى معالجة التهديدات المتعلقة بالأمن القومي والمنافسة وخصوصية المستهلك، في حين تعزيز الابتكار والمنافسة واستخدام الذكاء الاصطناعي للخدمات العامة.
إن أحد أهم عناصر الأمر هو المتطلب بأن تكشف الشركات التي تطور أكثر نماذج الذكاء الاصطناعي قوة نتائج اختبارات السلامة. في يوم الثلاثاء، أخبرت وزيرة التجارة جينا رايموندو قناة سي إن بي سي أنه بموجب الأمر التنفيذي “يوجه الرئيس إلى وزارة التجارة متطلبًا بأن تخبرنا الشركات: ما هي إجراءات الحماية التي ستضعها والسماح لنا بتقييم ما إذا كان ذلك كافيًا. ونخطط لمساءلة هذه الشركات.”
لا يحدد الأمر التنفيذي المكون من 63 صفحة، والذي يمكن الاطلاع عليه هنا، عواقب إبلاغ شركة بأن نموذجها قد يكون خطيرًا. ينقسم الخبراء – بعضهم يعتقد أن الأمر التنفيذي يحسن الشفافية فقط، في حين يعتقد آخرون أن الحكومة قد تتخذ إجراءًا إذا تبين أن النموذج غير آمن.
وهذا ما دفع بعض الخبراء إلى استنتاج أن البيت الأبيض واجه حدود السلطة التنفيذية في معالجة بعض مخاوف الذكاء الاصطناعي.
التوجيه المستقبلي
في مؤتمر إفتراضي قبل إصدار الأمر، قال مسؤول كبير إن الرئيس كلف فريقه بالعثور على كل وسيلة وسحبها، وفقًا لحضور هيلين تونر، مديرة استراتيجية ومنح البحوث الأساسية في مركز الأمن والتكنولوجيات الناشئة، وهو معهد فكر يهتم بهذا المجال.
يتكون جزء كبير من الأمر من تعليمات إلى هيئات وأجسام أخرى لإجراء دراسات أو وضع توجيهات أكثر تفصيلاً. على سبيل المثال، يجب على مكتب إدارة الموازنة إصدار توجيهات للوكالات الاتحادية بشأن كيفية تعزيز الابتكار مع إدارة مخاطر الذكاء الاصطناعي التي يمكن أن تنشأ خلال 150 يومًا.
تعتمد الأوامر التنفيذية على التنفيذ الناجح، لكن مستويات الدعم السياسي القوية من داخل الحكومة الاتحادية تعني أن لهذا الأمر فرصة أفضل من معظم الأوامر للتأثير، وفقًا لديفيانش كاوشيك، المدير المشارك للتكنولوجيات الناشئة والأمن القومي في معهد الابتكار الأمريكي.
حدود الحوسبة
من المرجح أن يكون لبعض أجزاء الأمر تأثير فوري، مثل التغييرات في القواعد المتعلقة بالهجرة ذات المهارات العالية. وتهدف هذه التغييرات إلى تعزيز الابتكار الأمريكي من خلال زيادة كمية المواهب المتاحة في مجال الذكاء الاصطناعي، وبعضها من المفترض أن يتم خلال 90 يومًا قادمًا.
إن إحدى الأحكام المرجح أن لها تأثير أكثر فورية على قطاع الذكاء الاصطناعي هي مجموعة المتطلبات المفروضة على الشركات التي تقوم بتطوير أو تنوي تطوير نماذج أساسية ذات استخدامات مزدوجة. هذه النماذج قادرة على القيام بعدد من المهام ويمكن أن تشكل تهديدًا للأمن القومي، كما أوضحته حكومة المملكة المتحدة مؤخرًا في ورقة نشرتها هنا قبل قمة السلامة الذكية. ستحتاج هذه الشركات إلى إبلاغ الحكومة الأمريكية عن خططها في مجال الذكاء الاصطناعي وإجراءات الأمن – كل من المادي والسيبراني – التي اتخذتها لتأمين نماذجها الذكية ونتائج أي اختبارات سلامة أجرتها.
تم تكليف وزير التجارة بتحديد النماذج الذكية التي تشكل خطرًا كافيًا لتأهلها لهذه المتطلبات. وحاليًا، لا يعرف الخبراء كيفية القيام بذلك، وفقًا لبول شار، الرئيس التنفيذي ومدير الدراسات في مركز الأمن الأمريكي الجديد، وهو معهد يهتم بالشؤون العسكرية.
في الوقت نفسه، ستنطبق المتطلبات على النماذج التي تتم تدريبها باستخدام كمية من القدرة الحسابية تتجاوز عتبة محددة قدرها 100 مليون مليار مليار عملية. لم يتم تدريب أي نماذج ذكاء اصطناعي حتى الآن باستخدام هذه الكمية من القدرة الحسابية. يقدر معهد إيبوك، وهو منظمة بحثية، أن نموذج جي بي تي-4 العام لشركة أوبن إيه، وهو أكثر النماذج العامة تقدمًا متاحة حاليًا، تم تدريبه باستخدام كمية أقل بخمس مرات من هذا المقدار.
لكن كمية القدرة الحسابية المستخدمة لتدريب نماذج الذكاء الاصطناعي كانت تضاعف كل ستة أشهر خلال العقد الماضي، وفقًا لمعهد إيبوك. أوضح مسؤول في إدارة بايدن أن العتبة تم تحديدها بحيث لا تشمل النماذج الحالية ولكن الجيل التالي من نماذج الذكاء الاصطناعي ذات المستوى العالمي ستشملها على الأرجح، وفقًا لشار، الذي حضر أيضًا الاجتماع.
إن القدرة الحسابية “وسيلة غير مباشرة” للشيء الذي يهتم به صانعو السياسات بالفعل – قدرات النموذج – وفقًا لشار. لكن كاوشيك يشير إلى أن وضع عتبة للحوسبة قد يخلق حافزًا لشركات الذكاء الاصطناعي لتطوير نماذج تحقق أداءً مماثلاً بينما تبقى القدرة الحسابية تحت العتبة، خاصة إذا تهددت متطلبات الإبلاغ أسرارها التجارية أو ملكيتها الفكرية.