لب نان 24
من خلال "ميتا".. الصين تطور نموذج ذكاء اصطناعي لأغراض عسكرية!
تكنولوجيا وعلوم
Advertisementكشف محللون ان مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج "لاما" المتاح للجمهور الذي ابتكرته شركة ميتا في تطوير أداة ذكاء اصطناعي لاستخدامها في تطبيقات عسكرية محتملة.
في ورقة بحثية نشرت في حزيران الماضي اطلعت عليها "رويترز"، قدم ستة باحثين صينيين من ثلاث مؤسسات، منهم مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج "لاما" لشركة ميتا كقاعدة لما يسمونه "تشات بي.
ي.
ي".
استخدم الباحثون نموذجا سابقا للغة من "لاما 13بي" تابعا لميتا ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.
ذكرت الدراسة أن برنامج "تشات بي.
ي.
ي" تم تنقيحه و"تحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري".
واتضح أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي تبلغ قدرتها نحو 90% تقريبا مثل برنامج "تشات جي.
ي.
ي-4" القوي لشركة أوبن إيه.
ي.
ولم يوضح الباحثون كيف قيموا الأداء ولم يحددوا ما إذا كان نموذج الذكاء الاصطناعي قد تم تطبيقه.
قال ساني تشيونغ، الزميل المشارك في مؤسسة جيمس تاون والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين ومنها الذكاء الاصطناعي "هذه هي المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيا ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدا تلك التي تنتجها شركة ميتا، لأغراض عسكرية".
أتاحت شركة ميتا الاستخدام المفتوح للكثير م ن نماذجها للذكاء الاصطناعي ومنها "لاما".
وتفرض قيودا على استخدامها تتضمن شرط أن تطلب الخدمات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من الشركة.
تحظر شروطها أيضا استخدام النماذج في "الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس" وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلا عن تطوير الأسلحة والمحتوى الذي يراد به "التحريض على العنف والترويج له".
كن، لأن نماذج "ميتا" عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.
ردا على أسئلة "رويترز"، أشارت "ميتا" إلى سياسة الاستخدام المقبولة وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.
في ورقة بحثية نشرت في حزيران الماضي اطلعت عليها "رويترز"، قدم ستة باحثين صينيين من ثلاث مؤسسات، منهم مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج "لاما" لشركة ميتا كقاعدة لما يسمونه "تشات بي.
ي.
ي".
استخدم الباحثون نموذجا سابقا للغة من "لاما 13بي" تابعا لميتا ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.
ذكرت الدراسة أن برنامج "تشات بي.
ي.
ي" تم تنقيحه و"تحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري".
واتضح أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى التي تبلغ قدرتها نحو 90% تقريبا مثل برنامج "تشات جي.
ي.
ي-4" القوي لشركة أوبن إيه.
ي.
ولم يوضح الباحثون كيف قيموا الأداء ولم يحددوا ما إذا كان نموذج الذكاء الاصطناعي قد تم تطبيقه.
قال ساني تشيونغ، الزميل المشارك في مؤسسة جيمس تاون والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين ومنها الذكاء الاصطناعي "هذه هي المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيا ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدا تلك التي تنتجها شركة ميتا، لأغراض عسكرية".
أتاحت شركة ميتا الاستخدام المفتوح للكثير م ن نماذجها للذكاء الاصطناعي ومنها "لاما".
وتفرض قيودا على استخدامها تتضمن شرط أن تطلب الخدمات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من الشركة.
تحظر شروطها أيضا استخدام النماذج في "الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس" وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلا عن تطوير الأسلحة والمحتوى الذي يراد به "التحريض على العنف والترويج له".
كن، لأن نماذج "ميتا" عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.
ردا على أسئلة "رويترز"، أشارت "ميتا" إلى سياسة الاستخدام المقبولة وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.