R.I.P. ، أنكي: شركة أخرى للروبوتات المنزلية تسقط


اليوم يجلب الحزن الأخبار في عالم الروبوتات المستهلك. تم إيقاف تشغيل Anki ، صانع Vector ، وهو روبوت كونترتوب مستقل يشبه اللعب ، وفقد مئات الأشخاص وظائفهم. إنها إجابة وحشية على سؤال طرحناه في الصيف الماضي: بالتأكيد ، الروبوتات المنزلية مثل Vector لطيف ، ولكن هل هذا شيء يريده المستهلكون بالفعل؟ من الواضح أنه لا يوجد عدد كافٍ من العملاء لـ Anki ، ولكن إليك ما هو أقل وضوحًا: ما وراء نجاح Roomba ، ماذا نريد على الأرض أن تفعله آلاتنا من أجلنا حول المنزل؟

لم يكن أنكي في أي مكان بالقرب من أول شركة تحاول ملء المنزل بالروبوتات الاجتماعية. كان الناس في ذلك منذ '80s. على الرغم من ذلك ، فقد فشلت جميعها تقريبًا ، وهما فشلان رئيسيان في العام الماضي. كان هناك Jibo ، روبوت سطح المكتب الثابت الذي رقص وتوفي مبكراً ، و Kuri ، آلة R2-D2-esque التي تدور حول التقاط صور لحفل العشاء الخاص بك قبل الدخول في الحفرة العظمى Robotic في السماء.

كانت المشكلة مع كليهما ، والآن ناقل أنكي ، أن أيا منهم لم يفعل الكثير حقا. على عكس Roomba و Rosie قادرة أسطورية من الطائرات، ليس لديهم وظيفة محددة للقيام بها. كانت جميعها لطيفة ، نعم ، وجذابة بشكل لا يمكن إنكاره ، لكن الثلاثة يجعلون لعنة: يُظهر Vector و Jibo و Kuri أنه لا يمكنك بيع إنسان آلي على المنزل بمظهر رائع. لا يمكن أن يكون الجهاز مجرد رفيق – يجب أن يكون عاملًا.

مات سيمون يغطي القنب والروبوتات وعلوم المناخ لـ WIRED.

ربما لا يوجد مكان أكثر تحديا للقيام بذلك من الفوضى البحتة في المنزل ، ما يسميه علماء الروبوتات بيئة "غير منظمة". حكمت الروبوتات على مدار عقود من الزمن المصنع ، لأن هذه بيئة "منظمة" يسهل السيطرة عليها. يمكنهم السفر على طول المسارات الموصوفة وإجراء مناورات متكررة للغاية مع مواجهة بعض العقبات غير المتوقعة ، إن وجدت. في المنزل ، يجب أن تتعامل الروبوتات مع السلالم والأطفال وتزدحم على الأرض. وعليهم القيام بذلك دون أن يكونوا قادرين على التلاعب بالأشياء ، وربما أكبر مشكلة بارزة في الروبوتات. لم يمنح أي شخص روبوتًا منزليًا بأيديهم ، لأنهم لن يكونوا مجديين في الاستيلاء على الأشياء.

ما أحرزه كل من Vector و Jibo و Kuri تقدمًا هائلًا هو استكشاف تعقيدات التفاعل بين الإنسان والآلة. قال هانز وولفرام تابينر ، أحد مؤسسي ورئيس شركة Anki ، لصحيفة WIRED في الصيف الماضي عندما تم الإعلان عن Vector: "إن وجود شخصية مدمجة يتيح لنا القيام بأشياء غير مقبولة اجتماعيًا من أحد الأجهزة". "Vector لا يجلس هناك وينتظر حتى تسأله شيئًا ما." على عكس الأجهزة ، كانت الآلة ممتعة – إلى حد كبير روبوت كما نتوقع.

ولكن في النهاية ، لم يستطع Vector الحصول على أداة الأجهزة النموذجية. شعبية المساعدين مثل Amazon's Alexa لم تجعل مهمة الشركة أسهل. مثل Roomba وكاسحة ، هؤلاء المساعدين تفعل شيئا واحدا بشكل جيد للغاية. ويفعلون ذلك من خلال الجلوس على سطح ثابت ، مما يعني أنه ليس عليهم التنقل في فوضى المنزل. إذا لم تتمكن الروبوتات المنزلية من الحصول على بيرة من الثلاجة أو غسيل الملابس أو التقاط أي شيء حرفيًا ، فهل هناك قيمة كبيرة في تنقلها؟ وإذا لم تكن ذكية مثل Alexa ، فهل هناك فائدة كبيرة في تكوين صداقات معهم؟

أعرف أكثر

دليل WIRED للروبوتات

يناضل صانعو الروبوتات المنزلية أيضًا لمواكبة قدرة أمازون وجوجل على التكرار على مساعديه الصوتيين بسرعة. الأجهزة مثل Vector’s هي قصة مختلفة تمامًا. إذا كانت الشركة تصمم روبوتًا وتدفعه للخارج إلى السوق ولا يعمل كما تريد ، فقد يستغرق الأمر سنوات لإعادة تصميمه.

قد لا يكون الهدف النهائي للروبوتات المنزلية هو بناء أفضل صديق لك بل جعل الروبوتات تختفي في المنزل. يقول كوري كيد ، مطور مابو ، وهو روبوت طبي يتفاعل مع المرضى: "في حالة روومبا ، إنها مجرد مكنسة كهربائية ، لا نفكر فيها كثيرًا مثل الروبوت". "وأعتقد أن هذا هو في الواقع نجاح ، عندما يفكر الناس في هذه الأشياء من حيث وظائفهم والمشكلة التي يحاولون حلها." فكر في المعالج الصغير: إذا كنت ترتدي ساعة رقمية قديمة مثلي ، فإنك لا فكر في الأمر كجهاز كمبيوتر لأنه أصبح جزءًا منك أكثر منه شيئًا فريدًا. لكنه بالفعل جهاز كمبيوتر.

ومع ذلك ، فإن ما تفعله الروبوتات المنزلية بالنسبة لهم هو ذلك السحر الجديد. هذا هو المكان الذي يصبح فيه تفاعل التفاعل بين الإنسان والآلة مثيرًا للاهتمام حقًا. كانت مشاهدة Kuri و Vector تدور حول التصفير و booping واتباع أوامرك أمرًا رائعًا. في جوهرها ، يسمح وجودهم المادي بوجود رابط مع آلة محملة بالكاريزما أكثر بكثير مما يمكن لمساعد الصوت الثابت حشده. هذا هو وعد الروبوتات المنزلية: إن الوهم بالوكالة قد لا يجعلها مفيدة بشكل خاص في الوقت الحالي ، لكنها تشكل علاقة جديدة غريبة بين الناس والآلات. لم تعد أدوات الروبوت مجرد أدوات ، فهم أصدقاء. وربما في يوم من الأيام (ربما بمجرد أن تنبت ذراعيها وأيديها) ، ستكون متجذرة في المنزل ، مثل Roomba ، إلى درجة أننا سننسى أنهم روبوتات على الإطلاق.

ربما يكون المتجه قد فشل في كسب قلوب كافية للبقاء على قيد الحياة ، لكن أنكي حقق تقدماً لا يقدر بثمن في التعرف على شكل هذه العلاقة بين الإنسان والآلة. يقول كيت دارلينج ، خبير علم الروبوت في معهد ماساتشوستس للتكنولوجيا ، الذي يدرس التفاعل بين الإنسان والآلة: "لقد كانوا في طليعة تصميم الروبوت الاجتماعي ، وسكبوا كثيرًا في الحصول على التفاعل الصحيح. لعبة لشيء آخر. "

وداع ، ناقل الحلو. قد تجد فائدة في Great Robotic Gig in the Sky.


المزيد من قصص WIRED العظمى

يجمع Vault Platform 4.2 مليون دولار لإصلاح الإبلاغ عن سوء السلوك في مكان العمل – TechCrunch


جمعت Vault Platform ، وهي شركة ناشئة مقرها لندن قامت ببناء برنامج لإعادة "تخيل" الإبلاغ عن سوء السلوك في مكان العمل ، 4.2 مليون دولار من التمويل الأساسي. تتصدر الجولة كيند كابيتال ، بمشاركة كل من أنجولار فنتشرز ، و System.One ، وجين في سي ، وشريك سابق في موزاييك فينتشرز مايك تشالفن.

تأسست Vault عام 2018 بواسطة Neta Meidav ​​و Rotem Hayoun-Meidav ​​، تحاول Vault إنشاء طريقة جديدة وأفضل لموظفي الشركة للإبلاغ عن سوء السلوك ، مثل البلطجة في مكان العمل أو المضايقة ، وبدلاً من ذلك يتم استبدال أنظمة "الخط الساخن" الحالية ، والتي يُعتقد أنها ناقص الاستخدام وغير فعالة في كثير من الأحيان.

يتيح عرض "TrustTech" المزعوم للموظفين تسجيل الحوادث بسهولة في مكان يشبه اليوميات ، مع خيار العمل فقط على تلك الشكاوى عندما يتقدم آخرون أيضًا. يتكون SaaS من تطبيق الموظف ، ومركز إدارة الحالات المؤسسية ، والبيانات والتحليلات. تدعي الأخيرة أنها قادرة على مساعدة المؤسسات على تحديد المشكلات المتكررة وإدارة المشكلات داخليًا قبل أن تتصاعد.

"لا جدال في أن عالم العمل يمر بتغير سريع في ضوء حركات #MeToo و # TimesUp – أدركنا أن أحد الأسباب الكامنة لهذه الثورة الثقافية هو حقيقة أن آليات الإبلاغ مكسورة تمامًا وما نحن عليه حقًا الشاهد هنا هو عجز في الثقة "، هذا ما قاله المؤسس والرئيس التنفيذي لشركة Vault Platform Neta Meidav ​​لـ TechCrunch.

"تنتشر البلطجة والمضايقة ، إلا أنه تم الإبلاغ عن 25 في المائة فقط من سوء السلوك. هذه مشكلة طويلة الأمد ، ولكن الخطر في الوقت الحاضر يكمن في المؤسسة وليس الفرد فقط. الشركات تستيقظ على الحاجة لفعل الأشياء بطريقة مختلفة ".

ولمعالجة هذا الأمر ، يقول ميداف إن Vault تم إنشاؤه كنظام أساسي "يركز على الموظف" والذي يوفر للموظفين مساحة آمنة شبيهة باليوميات لتسجيل الحوادث وحفظ الأدلة ذات الصلة. إذا اختاروا الإبلاغ عن ذلك إلى صاحب العمل ، وعندما يختارون ذلك ، فيمكنهم القيام بذلك عن طريق اختيار "GoTogether" ، وهي ميزة تسمح لهم بتقديم التقرير بشرط أنهم ليسوا وحدهم الذين يثيرون نفس المشكلات.

"يعد GoTogether بديلاً قابلاً للتطبيق لتقارير مجهولة الهوية ، ويضمن أن الناس يتقدمون … مع تقارير موثقة تستند إلى الأدلة" ، يوضح الرئيس التنفيذي لشركة Vault Platform. "مع حل الخط الساخن السائد السائد ، أصبحت إساءة الاستخدام أكثر من مجرد احتمال ، نظرًا لأن الموظفين يمكن أن" يبهوا "بشكل مجهول دون أي مساءلة عما يقال".

تصف Meidav ​​المنافسة الرئيسية لـ Vault Platform بأنها حلول "العمل كالمعتاد": مشغلي الخط الساخن المجهولين الذين يعدون تقليديًا التقصير لمعظم أصحاب العمل. "إنهم يقدمون قيمة قليلة للغاية للموظفين وأرباب العمل إلى جانب تحديد مربع الالتزام والأخلاقيات" ، كما تقول. "إلى جانبهم ، نحن نتنافس مع الشركات الناشئة الأخرى التي أخذت إلى حد كبير فكرة الإبلاغ المجهول ، ورقمنة المنهجية القديمة نفسها وحولتها إلى تطبيق".

في الوقت نفسه ، تقول Vault إنها ستستخدم التمويل لتوسيع نطاق وجودها في أمريكا الشمالية وأوروبا وتوسيع نطاقه. تقول الشركة إن العملاء المستهدفين هم منظمات ومؤسسات من كل قطاع وصناعة ، وعادة ما يعمل بها أكثر من 1000 موظف. ويضيف ميداف: "إن خط أنابيب عملائنا متنوع ، إلا أن الاهتمام الأكبر قد جاء بعيدًا عن شركات التكنولوجيا الناشئة".

إنه مسؤول: ملك التجارة الإلكترونية في الصين شيوعي



أشهر الرأسماليين في الصين شيوعي.

تم تحديد جاك ما ، مؤسس شركة التجارة الإلكترونية العملاقة Alibaba Group Holding Ltd. ، كعضو في الحزب الشيوعي يوم الاثنين من قبل People’s Daily التي يديرها الحزب في قائمة تكريم من الأشخاص الذين ساهموا في تحديث الاقتصاد الصيني.

لقد فاجأت الأخبار الكثيرين ، بمن فيهم مؤلف كتاب معروف …

مكافحة Vax استخدام 'Brady Bunch' إظهار غضب الممثلين


الاثنين 29 أبريل ، 2019 (HealthDay News) – بعض أعضاء فريق برادي بانش السابقين غير راضين عن استخدام حلقة من برنامج تلفزيوني من الستينيات والسبعينيات بواسطة مضادات الفاكسات كدليل على أن المخاوف بشأن مخاطر الحصبة مبالغ فيها.

في حلقة 1969 ، نزل جميع أطفال برادي الستة بالحصبة. إنهم يلعبون الألعاب ويخدعون ، ويشكرون أنهم لا يضطرون إلى تناول أي دواء أو الحصول على الطلقات ، الإذاعة الوطنية العامة ذكرت.

تقول الشخصية مارسيا برادي: "إذا كان عليك أن تمرض ، فمن المؤكد أنه لا يمكن التغلب على الحصبة".

يتم الآن استخدام هذه الحلقة على نطاق واسع من قبل الأشخاص الذين يعارضون اللقاحات ، بما في ذلك الدكتور توني بارك ، الذي يشهد ضد اللقاحات في المحاكم وفي جلسات الاستماع العامة في جميع أنحاء الولايات المتحدة ، الإذاعة الوطنية العامة ذكرت.

يقول بارك: "لقد بقيت في المنزل مثل برنامج برادي بانش. لقد بقيت في المنزل. لم تذهب إلى الطبيب". "لم يقلنا أبدًا ،" يا إلهي ، قد يموت ابنك. يا إلهي ، هذا مرض فتاك ". لقد أصبح ذلك ".

لكن الحصبة – واستخدام الحلقة – ليست مسألة تضحك بالنسبة لمورين ماكورميك ، التي لعبت دور مارسيا على برادي بانش. وتقول إنها كانت غاضبة عندما اكتشفت قبل بضعة أشهر أن مجموعة فيسبوك لمكافحة التطعيم كانت توزع الميمات عليها بالحصبة من تلك الحلقة ، الإذاعة الوطنية العامة ذكرت.

وتقول: "لقد كنت مهتمًا بهذا الأمر وأردت الوصول إلى هذا الحد ، لأنني لم يتم الاتصال بي مطلقًا".

يقول ماكورميك: "أعتقد أنه من الخطأ حقًا أن يستخدم الناس صور الأشخاص اليوم للترويج لكل ما يريدون الترويج له وصورة الشخص التي يستخدمونها لم يطلبوها أو ليس لديهم أي فكرة عن موقفهم من هذه القضية".

وتضيف "كأم ، تم تطعيم ابنتي".

في العام الذي تم فيه عرض الحلقة لأول مرة ، كان لدى الولايات المتحدة أكثر من 25000 حالة حصبة و 41 حالة وفاة ، وفقًا لبيانات مراكز السيطرة على الأمراض والوقاية منها. بلغ عدد حالات الحصبة في الولايات المتحدة حتى الآن هذا العام مستويات لم يشهدها أحد منذ إعلان القضاء على الفيروس في عام 2000 ، الإذاعة الوطنية العامة ذكرت.

WebMD الأخبار من HealthDay


حقوق الطبع والنشر © 2013-2018 HealthDay. كل الحقوق محفوظة.

كيفية منع مجالس أخلاقيات الذكاء الاصطناعي من الفشل



<div _ngcontent-c17 = "" innerhtml = "

Depositphotos يعززها CogWorld

لا يوجد شيء "مصطنع" حول أنظمة الإشباع بالذكاء الاصطناعي. هذه الأنظمة حقيقية وتؤثر بالفعل على الجميع اليوم من خلال التنبؤات والقرارات الآلية. ومع ذلك ، قد تظهر هذه العقول الرقمية سلوكيات لا يمكن التنبؤ بها يمكن أن تكون مثيرة للارتباك ، مربكة ، مسيئة ، وحتى خطيرة. لذلك ، قبل البدء باستراتيجية AI ، من الضروري أن تفكر الشركات في الذكاء الاصطناعي من خلال عدسة أنظمة البناء التي يمكنك الوثوق بها.

تثقيف حول مدى أهمية نهج "الناس والأخلاق أولاً"

غالبًا ما تعمل أنظمة الذكاء الاصطناعي بطرق مائلة غير مرئية قد تضر أكثر الناس ضعفًا. تشمل أمثلة هذا الضرر فقدان الخصوصية والتمييز وفقدان المهارات والأثر الاقتصادي وأمن البنية التحتية الحيوية والآثار طويلة الأجل على الرفاه الاجتماعي.

يجب أن يتطور نهج "التكنولوجيا والنقد أولاً" تجاه الذكاء الاصطناعى إلى نهج "الناس والأخلاق أولاً". التصميم المتوافق أخلاقياً هو مجموعة من المبادئ التوجيهية المجتمعية والسياساتية لتطوير أنظمة ذكية ومستقلة لضمان أن هذه الأنظمة تخدم قيم الإنسانية ومبادئها الأخلاقية.

اقترحت العديد من المنظمات والبلدان الجديرة بالملاحظة مبادئ توجيهية لتطوير أنظمة الذكاء الاصطناعى الموثوق بها للمضي قدمًا. ويشمل ذلك IEEE والمنتدى الاقتصادي العالمي ومعهد مستقبل الحياة ومعهد آلان تورينج و AI Global وحكومة كندا. بمجرد وضع الإرشادات الخاصة بك في مكانها الصحيح ، يمكنك البدء في تثقيف الجميع داخليًا وخارجيًا حول وعد ومخاطر الذكاء الاصطناعي والحاجة إلى مجلس أخلاقيات الذكاء الاصطناعي.

يمكن لهذه المجالس بعد ذلك تثقيف الجميع حول الحاجة إلى تصميم أنظمة AI والتحكم فيها بعناية بحيث تعكس القيم الأساسية للشركة وصناعتها مع توفير الشفافية والتفسير البشري ومسارات التدقيق لبناء الثقة والتحكم بها عندما تسوء الأمور.

التنشيط عن طريق إنشاء مجموعة متوازنة من الإجراءات

تأكد من وجود مجالس أخلاقيات الذكاء الاصطناعي على الأقل – داخلية وخارجية – وأن يكون لكل منهما أهداف واضحة. تحتاج كلتا المجموعتين إلى تحديد ميثاقها من حيث بيان المشكلة الواضح: بناء الذكاء الاصطناعى يمكنك الوثوق به.

يمكن أن يتألف المجلس الخارجي من خبراء في مجموعة متنوعة من المجالات – العلوم الاجتماعية ، دعاة العملاء ، المنظمون ، خبراء الذكاء الاصطناعى ، الخبراء القانونيون ، مدققو الحسابات ، علماء الأنثروبولوجيا ، إلخ. تحتاج المجموعات الاستشارية الخارجية إلى التركيز على مجموعة متنوعة من المواضيع: تقديم الأفكار والخبرات في فن استخدام الذكاء الاصطناعى بطريقة مسؤولة ، المساعدة في وضع مدونة لقواعد السلوك تضع حواجز الحماية على تصميم وتطوير الذكاء الاصطناعي من منظور اجتماعي وتنظيمي وإنساني أولاً ، وفي بعض الحالات ، ربط الشروط ببعض الصفقات التي تحد من استخدام التكنولوجيا الخاصة بها.

يمكن أن يتألف المجلس الداخلي من ليس فقط التكنولوجيا (CIO / CTO / CDO ، مطورو البرمجيات وخبراء تعلم الآلة) ، ولكن أيضًا أصحاب الأعمال والمنتجات ، والمحامون ، وخدمة العملاء ، وخبراء التصميم والتسويق. ينبغي أن يكون هدفهم هو ضمان تصميم ونشر ومراقبة أنظمة الذكاء الاصطناعي التي يمكن تفسيرها ، بحيث يكون المستخدمون البشريون قادرين على فهم القرارات والثقة بها. تحتاج المجموعة الداخلية أيضًا إلى وجود مجموعة فرعية لتوفير وسيلة علاج لأضرار أو أذى منظمة العفو الدولية.

مقياس عن طريق إضفاء الطابع المؤسسي على الممارسات الجيدة أثناء التعلم بسرعة والاستعداد للأمور لتتفاقم قبل أن تتحسن

من المهم لكل من المجالس الداخلية والخارجية ضمان أن يسترشد التصميم الأخلاقي ، وتطوير ، وتنفيذ تقنيات الذكاء الاصطناعي بمبادئ الذكاء الاصطناعي الخمسة التالية الموثوقة. حقوق البيانات: هل لديك حقوق في البيانات؟ التفسير: هل لديك AI شفافة؟ الإنصاف: هل منظمة العفو الدولية غير منحازة وعادلة؟ المتانة: هل لديك منظمة العفو الدولية قوية وآمنة؟ الامتثال: هل منظمة العفو الدولية تحكمها بشكل مناسب؟

بعد إنشاء هذه المجالس ، يجب على المؤسسات التركيز على التعلم وتوسيع نطاق الممارسات الجيدة من خلال اتخاذ سلسلة من الخطوات:

  1. استئجار أخلاقيات الشركة وتشكيل لوحات مراجعة منظمة العفو الدولية
  2. تنفيذ برامج التدريب الأخلاقية والمسؤولة لمنظمة العفو الدولية
  3. العمل مع المجلس الاستشاري الخارجي والعملاء لنشر مدونة أخلاقيات الذكاء الاصطناعى
  4. يتطلب منهج التفكير التصميمي لمنظمة العفو الدولية التي تشمل درب المراجعة
  5. أرفق الشروط ببعض الصفقات التي تحد من استخدام التكنولوجيا الخاصة بها
  6. قدّم وسيلة لعلاج أضرار الذكاء الاصطناعي أو الضرر إذا نشأ الوضع

أخيرًا وليس آخرًا ، قم بإعداد استراتيجية لأزمة العلاقات العامة والخط الساخن لمعالجة الحوادث بشكل استباقي. انها ليست مسألة إذا ، ولكن متى. سيكون هناك العديد من الكوارث في الطريق إلى استخدام الذكاء الاصطناعي من أجل الخير ، ونحن بحاجة إلى أن نكون مستعدين.

سوف يستهل نهج الأشخاص والأخلاقيات الأولى بحركة جديدة ، واحدة من إرشادات الاستخدام المثمر والمتفشية لمنظمة العفو الدولية في حياتنا اليومية لمعالجة بعض التحديات الأكثر تعقيدًا التي تواجهنا كمجتمع.

">

Depositphotos يعززها CogWorld

لا يوجد شيء "مصطنع" حول أنظمة الإشباع بالذكاء الاصطناعي. هذه الأنظمة حقيقية وتؤثر بالفعل على الجميع اليوم من خلال التنبؤات والقرارات الآلية. ومع ذلك ، قد تظهر هذه العقول الرقمية سلوكيات لا يمكن التنبؤ بها يمكن أن تكون مثيرة للارتباك ، مربكة ، مسيئة ، وحتى خطيرة. لذلك ، قبل البدء باستراتيجية AI ، من الضروري أن تفكر الشركات في الذكاء الاصطناعي من خلال عدسة أنظمة البناء التي يمكنك الوثوق بها.

تثقيف حول مدى أهمية نهج "الناس والأخلاق أولاً"

غالبًا ما تعمل أنظمة الذكاء الاصطناعي بطرق مائلة غير مرئية قد تضر أكثر الناس ضعفًا. تشمل أمثلة هذا الضرر فقدان الخصوصية والتمييز وفقدان المهارات والأثر الاقتصادي وأمن البنية التحتية الحيوية والآثار طويلة الأجل على الرفاه الاجتماعي.

يجب أن يتطور نهج "التكنولوجيا والنقد أولاً" تجاه الذكاء الاصطناعى إلى نهج "الناس والأخلاق أولاً". التصميم المتوافق أخلاقياً هو مجموعة من المبادئ التوجيهية المجتمعية والسياساتية لتطوير أنظمة ذكية ومستقلة لضمان أن هذه الأنظمة تخدم قيم الإنسانية ومبادئها الأخلاقية.

اقترحت العديد من المنظمات والبلدان الجديرة بالملاحظة مبادئ توجيهية لتطوير أنظمة الذكاء الاصطناعى الموثوق بها للمضي قدمًا. ويشمل ذلك IEEE والمنتدى الاقتصادي العالمي ومعهد مستقبل الحياة ومعهد آلان تورينج و AI Global وحكومة كندا. بمجرد وضع الإرشادات الخاصة بك في مكانها الصحيح ، يمكنك البدء في تثقيف الجميع داخليًا وخارجيًا حول وعد ومخاطر الذكاء الاصطناعي والحاجة إلى مجلس أخلاقيات الذكاء الاصطناعي.

يمكن لهذه المجالس بعد ذلك تثقيف الجميع حول الحاجة إلى تصميم أنظمة AI والتحكم فيها بعناية بحيث تعكس القيم الأساسية للشركة وصناعتها مع توفير الشفافية والتفسير البشري ومسارات التدقيق لبناء الثقة والتحكم بها عندما تسوء الأمور.

التنشيط عن طريق إنشاء مجموعة متوازنة من الإجراءات

تأكد من وجود مجالس أخلاقيات الذكاء الاصطناعي على الأقل – داخلية وخارجية – وأن يكون لكل منهما أهداف واضحة. تحتاج كلتا المجموعتين إلى تحديد ميثاقها من حيث بيان المشكلة الواضح: بناء الذكاء الاصطناعى يمكنك الوثوق به.

يمكن أن يتألف المجلس الخارجي من خبراء في مجموعة متنوعة من المجالات – العلوم الاجتماعية ، دعاة العملاء ، المنظمون ، خبراء الذكاء الاصطناعى ، الخبراء القانونيون ، مدققو الحسابات ، علماء الأنثروبولوجيا ، إلخ. تحتاج المجموعات الاستشارية الخارجية إلى التركيز على مجموعة متنوعة من المواضيع: تقديم الأفكار والخبرات في فن استخدام الذكاء الاصطناعى بطريقة مسؤولة ، المساعدة في وضع مدونة لقواعد السلوك تضع حواجز الحماية على تصميم وتطوير الذكاء الاصطناعي من منظور اجتماعي وتنظيمي وإنساني أولاً ، وفي بعض الحالات ، ربط الشروط ببعض الصفقات التي تحد من استخدام التكنولوجيا الخاصة بها.

يمكن أن يتألف المجلس الداخلي من ليس فقط التكنولوجيا (CIO / CTO / CDO ، مطورو البرمجيات وخبراء تعلم الآلة) ، ولكن أيضًا أصحاب الأعمال والمنتجات ، والمحامون ، وخدمة العملاء ، وخبراء التصميم والتسويق. ينبغي أن يكون هدفهم هو ضمان تصميم ونشر ومراقبة أنظمة الذكاء الاصطناعي التي يمكن تفسيرها ، بحيث يكون المستخدمون البشريون قادرين على فهم القرارات والثقة بها. تحتاج المجموعة الداخلية أيضًا إلى وجود مجموعة فرعية لتوفير وسيلة علاج لأضرار أو أذى منظمة العفو الدولية.

مقياس عن طريق إضفاء الطابع المؤسسي على الممارسات الجيدة أثناء التعلم بسرعة والاستعداد للأمور لتتفاقم قبل أن تتحسن

من المهم لكل من المجالس الداخلية والخارجية ضمان أن يسترشد التصميم الأخلاقي ، وتطوير ، وتنفيذ تقنيات الذكاء الاصطناعي بمبادئ الذكاء الاصطناعي الخمسة التالية الموثوقة. حقوق البيانات: هل لديك حقوق في البيانات؟ التفسير: هل لديك AI شفافة؟ الإنصاف: هل منظمة العفو الدولية غير منحازة وعادلة؟ المتانة: هل لديك منظمة العفو الدولية قوية وآمنة؟ الامتثال: هل منظمة العفو الدولية تحكمها بشكل مناسب؟

بعد إنشاء هذه المجالس ، يجب على المؤسسات التركيز على التعلم وتوسيع نطاق الممارسات الجيدة من خلال اتخاذ سلسلة من الخطوات:

  1. استئجار أخلاقيات الشركة وتشكيل لوحات مراجعة منظمة العفو الدولية
  2. تنفيذ برامج التدريب الأخلاقية والمسؤولة لمنظمة العفو الدولية
  3. العمل مع المجلس الاستشاري الخارجي والعملاء لنشر مدونة أخلاقيات الذكاء الاصطناعى
  4. يتطلب منهج التفكير التصميمي لمنظمة العفو الدولية التي تشمل درب المراجعة
  5. أرفق الشروط ببعض الصفقات التي تحد من استخدام التكنولوجيا الخاصة بها
  6. قدّم وسيلة لعلاج أضرار الذكاء الاصطناعي أو الضرر إذا نشأ الوضع

أخيرًا وليس آخرًا ، قم بإعداد استراتيجية لأزمة العلاقات العامة والخط الساخن لمعالجة الحوادث بشكل استباقي. انها ليست مسألة إذا ، ولكن متى. سيكون هناك العديد من الكوارث في الطريق إلى استخدام الذكاء الاصطناعي من أجل الخير ، ونحن بحاجة إلى أن نكون مستعدين.

سوف يستهل نهج الأشخاص والأخلاقيات الأولى بحركة جديدة ، واحدة من إرشادات الاستخدام المثمر والمتفشية لمنظمة العفو الدولية في حياتنا اليومية لمعالجة بعض التحديات الأكثر تعقيدًا التي تواجهنا كمجتمع.