The Weaponization Of Artificial Intelligence



<div _ngcontent-c14 = "" innerhtml = "

حقيقة صعود أنظمة الأسلحة ذاتية الحكمتحسينات Depositphotos بواسطة CogWorld

المقدمة

أصبح التطور التكنولوجي سباق الفئران. في المنافسة على قيادة سباق التكنولوجيا الناشئة وأرض المعركة الحربية المستقبلية ، أصبحت الذكاء الاصطناعي (AI) بسرعة مركزًا للعب العالمي. وكما رأينا عبر العديد من الدول ، فإن تطور نظام الأسلحة الذاتية (AWS) يتقدم بسرعة ، ويبدو أن هذه الزيادة في تسليح الذكاء الاصطناعي أصبحت تطوراً يزعزع الاستقرار إلى حد كبير. إنه يجلب تحديات أمنية معقدة ليس فقط لصناع القرار في كل دولة ولكن أيضا لمستقبل الإنسانية.

الواقع اليوم هو أن الذكاء الاصطناعي يقودنا نحو ساحة معركة خوارزمية جديدة لا حدود لها أو حدود ، قد يكون أو لا يكون بها إنسان معني ، وسيكون من المستحيل فهمه وربما التحكم فيه عبر النظام البيئي البشري في الفضاء السيبراني والفضاء والفضاء. (CGS). ونتيجة لذلك ، فإن فكرة تسليح الذكاء الاصطناعي ، حيث يمكن لنظام الأسلحة ، الذي يتم تنشيطه مرة واحدة عبر CGS ، تحديد الأهداف البشرية وغير البشرية وإشراكها دون تدخل آخر من قبل مصمم أو مشغل إنساني ، هو مما تسبب في خوف كبير.

إن التفكير في أي آلة ذكية أو ذكاء الماكينة لديها القدرة على أداء أي مهمة حربية متوقعة دون أي تدخل أو تدخل بشري – باستخدام فقط تفاعل أجهزة الاستشعار المدمجة ، وبرمجة الكمبيوتر والخوارزميات في البيئة البشرية والنظام البيئي – هو تصبح حقيقة لا يمكن تجاهلها بعد الآن.

تسليح الذكاء الاصطناعي

مع تطور الذكاء الاصطناعي ، يتطور التعلم الآلي والتعلم العميق بشكل أكبر ويتحرك من المفهوم إلى التسويق ، ولا يؤدي التسارع السريع في قوة الحوسبة والذاكرة والبيانات الضخمة والاتصالات عالية السرعة إلى خلق الابتكار والاستثمار وعبء التطبيق فحسب ، بل يؤدي أيضًا إلى تكثيف السعي لرقائق منظمة العفو الدولية. هذه التقدم السريع المستمر والتنمية تشير إلى أن الذكاء الاصطناعي في طريقه إلى إحداث ثورة في الحرب وأن الدول ستواصل دون شك تطوير نظام الأسلحة الآلي الذي ستتيحه منظمة العفو الدولية.

عندما تسرع الدول بشكل فردي وجماعي من جهودها للحصول على ميزة تنافسية في العلوم والتكنولوجيا ، فإن المزيد من تسليح منظمة العفو الدولية أمر لا مفر منه. وبناءً على ذلك ، هناك حاجة لتصور ما يمكن أن تبدو عليه حرب الغد الخوارزمي ، لأن بناء أنظمة أسلحة مستقلة هو شيء واحد ، لكن استخدامها في الحروب الخوارزمية مع الدول الأخرى وضد البشر هو أمر آخر.

كما التقارير الناشئة بالفعل من الأنظمة الخوارزمية المعقدة التي تدعم المزيد والمزيد من جوانب القتال الحربي عبر CGS ، الحقيقة هي أن تحويل الذكاء الاصطناعي إلى AI أصبح حقيقة واقعة الآن. كما رأينا في الفضاء السيبراني ، فإن الحرب الآلية (الحرب الإلكترونية) لها بدأت بالفعل – حيث يكون أي شخص وكل شخص هدفًا. إذن ، ما هي الخطوة التالية ، الحرب الجيولوجية وحرب الفضاء؟ ومن وماذا سيكون الهدف؟

التطور السريع لتسليح منظمة العفو الدولية واضح في جميع المجالات: التنقل والاستفادة من البحرية غير المأهولةوالمركبات الجوية والتضاريس ، وإنتاج تقديرات الأضرار الجانبية ، نشر أنظمة الصواريخ "النار والنسيان" واستخدام أنظمة ثابتة لأتمتة كل شيء من أنظمة الموظفين وصيانة المعدات إلى نشر طائرات مراقبة بدون طيار، الروبوتات وأكثر من كل الأمثلة. لذا ، عندما تدعم الخوارزميات المزيد والمزيد من جوانب الحرب ، فإنها تقودنا إلى سؤال مهم: ما هي استخدامات الذكاء الاصطناعي في حرب اليوم والغد التي ينبغي السماح بها ، أو تقييدها أو حظرها صراحة؟

في حين يُعتقد أن أنظمة الأسلحة المستقلة توفر فرصًا لتخفيض تكاليف تشغيل نظام الأسلحة – تحديدًا من خلال الاستخدام الأكثر كفاءة للقوى العاملة – ومن المرجح أن تمكّن أنظمة الأسلحة من تحقيق سرعة أكبر ودقة واستمرار ودقة وإمكانية الوصول والتنسيق على ساحة المعركة CGS ، لا تزال هناك حاجة لفهم وتقييم القضايا التكنولوجية والقانونية والاقتصادية والاجتماعية والأمنية.

دور المبرمجين والبرمجة

في خضم هذه التحديات الأمنية المعقدة وبحر المجهولين الذين ياتون طريقنا ، ما يظل أساسيًا لسلامة وأمن الجنس البشري هو دور المبرمجين والبرمجة جنبا إلى جنب مع سلامة رقائق أشباه الموصلات. السبب وراء ذلك هو أن المبرمجين يمكنهم تحديد وتحديد طبيعة AWS (على الأقل في البداية) حتى تبدأ منظمة العفو الدولية في برمجة نفسها.

ومع ذلك ، إذا قام مبرمج يقوم عن قصد أو عن غير قصد ببرمجة سلاح مستقل للعمل بشكل ينتهك القانون الإنساني الدولي الحالي والمستقبلي ، فكيف سيسيطر البشر على تسليح منظمة العفو الدولية؟ علاوة على ذلك ، لأن AWS تركز على البرمجيات ، فأين تقع المسؤولية عن الأخطاء والتلاعب في تصميم أنظمة AWS واستخدامها؟ هذا يقودنا إلى صميم السؤال – متى ومتى انتهى نظام مستقل ، من المسؤول عن القتل ، بغض النظر عما إذا كان مبرراً أم لا؟

تحديات الأمن السيبراني

باختصار ، فإن الخوارزميات ليست آمنة بأي حال من الأحوال ، ولا هي محصنة ضد البق والبرمجيات الخبيثة والتحيز والتلاعب. وبما أن التعلم الآلي يستخدم آلات لتدريب أجهزة أخرى ، ماذا يحدث إذا كانت هناك برامج ضارة أو تلاعب في بيانات التدريب؟ في حين أن المخاطر الأمنية موجودة في كل مكان ، فإن الأجهزة المتصلة تزيد من قدرة اختراق الأمن السيبراني من المواقع البعيدة ولأن الشفرة مبهمة ، فالأمن معقد للغاية. لذلك ، عندما تذهب منظمة العفو الدولية إلى الحرب مع منظمة العفو الدولية الأخرى (بغض النظر عما إذا كان ذلك يتعلق بالأمن السيبراني أو الأمن الجغرافي أو أمن الفضاء) ، فإن تحديات الأمن السيبراني المستمرة ستضيف مخاطر هائلة لمستقبل البشرية والنظام البيئي البشري في CGS.

في حين يبدو أن أنظمة الأسلحة المستقلة موجودة لتبقى ، فإن السؤال الذي نحتاجه بشكل فردي وجماعي للإجابة عليه هو هل سيقود الذكاء الاصطناعي ويحدد استراتيجيتنا من أجل بقاء البشرية وأمنها ، أم هل سنفعل؟

واعترافًا بهذه الحقيقة الناشئة ، شرعت مجموعة المخاطر في مناقشة الحاجة الملحة لنظم الأسلحة المستقلة مع ماركوس فاغنر ، المؤلف المنشور والأستاذ المساعد للقانون في جامعة ولونغونغ ومقرها في أستراليا.

الإفصاح: Risk Group LLC هي شركتي

يناقش فريق المخاطر نظام الأسلحة المستقلة والقانون مع ماركوس فاغنر ، المؤلف المنشور والأستاذ المساعد للقانون في جامعة ولونغونغ ومقرها في أستراليا على تقرير المخاطر.

ماذا بعد؟

وبما أن الدول تقوم بشكل فردي وجماعي بتسريع جهودها للحصول على ميزة تنافسية في العلوم والتكنولوجيا ، فإن المزيد من تسليح منظمة العفو الدولية أمر لا مفر منه. ونتيجة لذلك ، فإن تغيير موقع AWS من شأنه أن يغير المعنى ذاته ليكون إنسانًا ، ولن يغيّر ، بأي حال من الأحوال ، المصطلحات غير المضمونة أساسيات الأمن ومستقبل الإنسانية والسلام.

من المهم فهم وتقييم ما إذا كان سباق التسلح الذاتي لا يمكن منعه ، وما يمكن أن يحدث بشكل خاطئ. لقد حان الوقت للاعتراف بحقيقة أنه ببساطة لأن التكنولوجيا قد تسمح بالنجاح في تطوير AWS لا يعني أنه ينبغي لنا ذلك. ربما ليس من مصلحة الإنسانية تسليح الذكاء الاصطناعي! لقد حان الوقت لوقفة.

">

حقيقة صعود أنظمة الأسلحة ذاتية الحكمتحسينات Depositphotos بواسطة CogWorld

المقدمة

أصبح التطور التكنولوجي سباق الفئران. في المنافسة على قيادة سباق التكنولوجيا الناشئة وأرض المعركة الحربية المستقبلية ، أصبحت الذكاء الاصطناعي (AI) بسرعة مركزًا للعب العالمي. وكما رأينا عبر العديد من الدول ، فإن تطور نظام الأسلحة الذاتية (AWS) يتقدم بسرعة ، ويبدو أن هذه الزيادة في تسليح الذكاء الاصطناعي أصبحت تطوراً يزعزع الاستقرار إلى حد كبير. إنه يجلب تحديات أمنية معقدة ليس فقط لصناع القرار في كل دولة ولكن أيضا لمستقبل الإنسانية.

الواقع اليوم هو أن الذكاء الاصطناعي يقودنا نحو ساحة معركة خوارزمية جديدة لا حدود لها أو حدود ، قد يكون أو لا يكون بها إنسان معني ، وسيكون من المستحيل فهمه وربما التحكم فيه عبر النظام البيئي البشري في الفضاء السيبراني والفضاء والفضاء. (CGS). ونتيجة لذلك ، فإن فكرة تسليح الذكاء الاصطناعي ، حيث يمكن لنظام الأسلحة ، الذي يتم تنشيطه مرة واحدة عبر CGS ، تحديد الأهداف البشرية وغير البشرية وإشراكها دون تدخل آخر من قبل مصمم أو مشغل إنساني ، هو مما تسبب في خوف كبير.

إن التفكير في أي آلة ذكية أو ذكاء الماكينة لديها القدرة على أداء أي مهمة حربية متوقعة دون أي تدخل أو تدخل بشري – باستخدام فقط تفاعل أجهزة الاستشعار المدمجة ، وبرمجة الكمبيوتر والخوارزميات في البيئة البشرية والنظام البيئي – هو تصبح حقيقة لا يمكن تجاهلها بعد الآن.

تسليح الذكاء الاصطناعي

مع تطور الذكاء الاصطناعي ، يتطور التعلم الآلي والتعلم العميق بشكل أكبر ويتحرك من المفهوم إلى التسويق ، ولا يؤدي التسارع السريع في قوة الحوسبة والذاكرة والبيانات الضخمة والاتصالات عالية السرعة إلى خلق الابتكار والاستثمار وعبء التطبيق فحسب ، بل يؤدي أيضًا إلى تكثيف السعي لرقائق منظمة العفو الدولية. هذه التقدم السريع المستمر والتنمية تشير إلى أن الذكاء الاصطناعي في طريقه إلى إحداث ثورة في الحرب وأن الدول ستواصل دون شك تطوير نظام الأسلحة الآلي الذي ستتيحه منظمة العفو الدولية.

عندما تسرع الدول بشكل فردي وجماعي من جهودها للحصول على ميزة تنافسية في العلوم والتكنولوجيا ، فإن المزيد من تسليح منظمة العفو الدولية أمر لا مفر منه. وبناءً على ذلك ، هناك حاجة لتصور ما يمكن أن تبدو عليه حرب الغد الخوارزمي ، لأن بناء أنظمة أسلحة مستقلة هو شيء واحد ، لكن استخدامها في الحروب الخوارزمية مع الدول الأخرى وضد البشر هو أمر آخر.

كما التقارير الناشئة بالفعل من الأنظمة الخوارزمية المعقدة التي تدعم المزيد والمزيد من جوانب القتال الحربي عبر CGS ، الحقيقة هي أن تحويل الذكاء الاصطناعي إلى AI أصبح حقيقة واقعة الآن. كما رأينا في الفضاء السيبراني ، فإن الحرب الآلية (الحرب الإلكترونية) لها بدأت بالفعل – حيث يكون أي شخص وكل شخص هدفًا. إذن ، ما هي الخطوة التالية ، الحرب الجيولوجية وحرب الفضاء؟ ومن وماذا سيكون الهدف؟

التطور السريع لتسليح منظمة العفو الدولية واضح في جميع المجالات: التنقل والاستفادة من البحرية غير المأهولةوالمركبات الجوية والتضاريس ، وإنتاج تقديرات الأضرار الجانبية ، نشر أنظمة الصواريخ "النار والنسيان" واستخدام أنظمة ثابتة لأتمتة كل شيء من أنظمة الموظفين وصيانة المعدات إلى نشر طائرات مراقبة بدون طيار، الروبوتات وأكثر من كل الأمثلة. لذا ، عندما تدعم الخوارزميات المزيد والمزيد من جوانب الحرب ، فإنها تقودنا إلى سؤال مهم: ما هي استخدامات الذكاء الاصطناعي في حرب اليوم والغد التي ينبغي السماح بها ، أو تقييدها أو حظرها صراحة؟

في حين يُعتقد أن أنظمة الأسلحة المستقلة توفر فرصًا لتخفيض تكاليف تشغيل نظام الأسلحة – تحديدًا من خلال الاستخدام الأكثر كفاءة للقوى العاملة – ومن المرجح أن تمكّن أنظمة الأسلحة من تحقيق سرعة أكبر ودقة واستمرار ودقة وإمكانية الوصول والتنسيق على ساحة المعركة CGS ، لا تزال هناك حاجة لفهم وتقييم القضايا التكنولوجية والقانونية والاقتصادية والاجتماعية والأمنية.

دور المبرمجين والبرمجة

في خضم هذه التحديات الأمنية المعقدة وبحر المجهولين الذين ياتون طريقنا ، ما يظل أساسيًا لسلامة وأمن الجنس البشري هو دور المبرمجين والبرمجة جنبا إلى جنب مع سلامة رقائق أشباه الموصلات. السبب وراء ذلك هو أن المبرمجين يمكنهم تحديد وتحديد طبيعة AWS (على الأقل في البداية) حتى تبدأ منظمة العفو الدولية في برمجة نفسها.

ومع ذلك ، إذا قام مبرمج يقوم عن قصد أو عن غير قصد ببرمجة سلاح مستقل للعمل بشكل ينتهك القانون الإنساني الدولي الحالي والمستقبلي ، فكيف سيسيطر البشر على تسليح منظمة العفو الدولية؟ علاوة على ذلك ، لأن AWS تركز على البرمجيات ، فأين تقع المسؤولية عن الأخطاء والتلاعب في تصميم أنظمة AWS واستخدامها؟ هذا يقودنا إلى صميم السؤال – متى ومتى انتهى نظام مستقل ، من المسؤول عن القتل ، بغض النظر عما إذا كان مبرراً أم لا؟

تحديات الأمن السيبراني

باختصار ، فإن الخوارزميات ليست آمنة بأي حال من الأحوال ، ولا هي محصنة ضد البق ، والبرمجيات الخبيثة ، والتحيز والتلاعب. وبما أن التعلم الآلي يستخدم آلات لتدريب أجهزة أخرى ، ماذا يحدث إذا كانت هناك برامج ضارة أو تلاعب في بيانات التدريب؟ في حين أن المخاطر الأمنية موجودة في كل مكان ، فإن الأجهزة المتصلة تزيد من قدرة اختراق الأمن السيبراني من المواقع البعيدة ولأن الشفرة مبهمة ، فالأمن معقد للغاية. لذلك ، عندما تذهب منظمة العفو الدولية إلى الحرب مع منظمة العفو الدولية الأخرى (بغض النظر عما إذا كان ذلك يتعلق بالأمن السيبراني أو الأمن الجغرافي أو أمن الفضاء) ، فإن تحديات الأمن السيبراني المستمرة ستضيف مخاطر هائلة لمستقبل البشرية والنظام البيئي البشري في CGS.

في حين يبدو أن أنظمة الأسلحة المستقلة موجودة لتبقى ، فإن السؤال الذي نحتاجه بشكل فردي وجماعي للإجابة عليه هو هل سيقود الذكاء الاصطناعي ويحدد استراتيجيتنا من أجل بقاء البشرية وأمنها ، أم هل سنفعل؟

واعترافًا بهذه الحقيقة الناشئة ، شرعت مجموعة المخاطر في مناقشة الحاجة الملحة لنظم الأسلحة المستقلة مع ماركوس فاغنر ، المؤلف المنشور والأستاذ المساعد للقانون في جامعة ولونغونغ ومقرها في أستراليا.

الإفصاح: Risk Group LLC هي شركتي

يناقش فريق المخاطر نظام الأسلحة المستقلة والقانون مع ماركوس فاغنر ، المؤلف المنشور والأستاذ المساعد للقانون في جامعة ولونغونغ ومقرها في أستراليا على تقرير المخاطر.

ماذا بعد؟

وبما أن الدول تقوم بشكل فردي وجماعي بتسريع جهودها للحصول على ميزة تنافسية في العلوم والتكنولوجيا ، فإن المزيد من تسليح منظمة العفو الدولية أمر لا مفر منه. ونتيجة لذلك ، فإن تغيير موقع الأرصاد الجوية الأوتوماتية (AWS) من شأنه أن يغير المعنى ذاته ليصبح إنسانيا ، وسوف يغيّر ، بلا أي شك ، أسس الأمن ومستقبل الإنسانية والسلام.

من المهم فهم وتقييم ما إذا كان سباق التسلح الذاتي لا يمكن منعه ، وما يمكن أن يحدث بشكل خاطئ. لقد حان الوقت للاعتراف بحقيقة أنه ببساطة لأن التكنولوجيا قد تسمح بالنجاح في تطوير AWS لا يعني أنه ينبغي لنا ذلك. ربما ليس من مصلحة الإنسانية تسليح الذكاء الاصطناعي! لقد حان الوقت لوقفة.