أخر الاخبار

هل يمكن الوثوق بالروبوتات

آداب الآلة : ثق بي ، أنا روبوت

آداب الآلة : ثق بي ، أنا روبوت

الثقة هي سلعة حساسة للغاية يمكن تدميرها بسهولة ولكن لا يمكن تصنيعها إلا بشق الأنفس. هذا ينطبق على الناس وكذلك على الآلات. أي شخص عانى من فقدان بيانات مهمة في اي وقتً مضى فجأةً بسبب تحديث او ماشابه ذلك ستنعدم ثقته بالمتسبب وبكل من يقدم هكذا خدمات وسيضع في باله خطر الفقدان نقطة اساسية . حتى الروبوتات والوكلاء الافتراضيين الذين يقومون حاليا بوضع أقدامهم للتدخل أكثر فأكثر في الشؤون الإنسانية لا ينبغي بالضرورة أن يتوقعوا الترحيب بأذرع مفتوحة.
وقالت اليساندرا روسي (من جامعة هيرتفوردشاير) في المؤتمر الدولي حول التفاعل بين الإنسان وعامل (HAI) في ساوثامبتون. ان الفيديو الترويجي للروبوت بيبر ، الذي عرض فيه مقتطفات عنه ، دليلاً واضحًا على أنه خارج قدرات الروبوت ، فإن قدرات الروبوتات مبالغ فيها. ومع ذلك ، فقد كانت محقة في قولها بأن معرفة القدرات الحقيقية هي عامل رئيسي في الثقة في التكنولوجيا وبالتالي في قبولها الاجتماعي.
تدابير بناء الثقة
للتحقيق في هذه المسألة ، أجرى باحثون من جامعة هرفوردشاير دراسة لمدة يومين مع طلاب أكبر سنًا (الذين تتراوح أعمارهم بين 14 عامًا) كجزء من مشروع EU SECURE خلال أسبوع Robotics في المملكة المتحدة. أتيحت الفرصة للطلاب للتعرف على الروبوت في عملية من ثلاث مراحل: أولا شاهدوا شريط فيديو عنه ، ثم كانوا يتفاعلون معه مباشرة وأخيرا طلب منهم برمجة ذلك. بعد كل خطوة ، طُلب منهم الإجابة عن أسئلة مثل ما إذا كانوا يريدون Pepper في المنزل ، سواء كانوا يثقون به للمساعدة في الأعمال المنزلية ، أو مدى سهولة أو صعوبة البرنامج. وأظهرت أنه كلما كانت التجربة أكثر شدة ، زادت الثقة في الروبوت.
أُجريت دراسة للأطفال الأصغر من 7 إلى 11 سنة في جامعة أمستردام كجزء من مشروع Childrobot ، حسبما أفادت كارولين فان ستراتين. كانت الروبوتات أصغر أيضًا: حيث طُلب من الأطفال لعب لعبة التخمين مع روبوت . ثم سئلوا عن تجاربهم.
أراد الباحثون معرفة إلى أي مدى يمكن للأطفال التمييز بين الثقة التكنولوجية وبين الأشخاص. يتم تعريف الثقة التكنولوجية على أنها الرغبة في الاعتماد على توصيات آلة ، والثقة الشخصية باعتبارها الرغبة في أن تكون عرضة للآخرين. أظهر تحليل بيانات الأطفال أن ثقتهم في الروبوت كانت مبنية بشكل أساسي على الفئات بين الأشخاص.
إلا أن الباحثين فوجئوا من حقيقة أن بعض الأطفال برروا ثقتهم الشخصية في الإنسان الآلي بقدراته التكنولوجية أو قيوده ، التي شكلوا لها فئة ثالثة. من أجل فهم أفضل لهذا التفاعل للأبعاد المختلفة للثقة ، وبالتالي تطوير العلاقات الاجتماعية بين البشر والروبوتات ، يوصي الباحثون بإجراء المزيد من الدراسات مع مجموعات أكبر وأكثر تمثيلاً من الأطفال وكذلك مع المراهقين.
الأخلاق
بالطبع ، لكي يتم قبول الروبوتات والعوامل الافتراضية كعناصر اجتماعية في المجتمع البشري ، من المفيد أن تكون صحيحة أخلاقياً. في جامعة فرايبورغ ، كانت لورا فاشتر قد أجرت 30 موضوع اختبار مع حاسوب روبوت قال فيه عن المعضلات الأخلاقية التي عانى منها روبوت آخر.
من بين أمور أخرى ، كان الأمر يتعلق بما إذا كان الروبوت قد يكذب لنقل شخص مسن يعتني به لسلوك أكثر صحة ، أو ما إذا كان قد يتبرع بمبلغ غير محدود من التغير في الأضرار إلى دار للأيتام. بعد ذلك يجب على المشاركين في التجربة تقييم سلوك الروبوت.
صُنفت بياناتهم وفقاً للتقاليد الأخلاقية التي تم توجيهها: حيث أن "المنفعة" أو "التبعية" تنطبق على الأخلاق التي تسعى إلى تحقيق أكبر فائدة ممكنة من أكبر عدد ممكن من الأشخاص ؛ إن أخلاق "الأخلاق" ، التي تنص على أن بعض الأفعال حسنة أو سيئة ، بغض النظر عن نتائجها ، تصوغ القواعد التي يجب إطاعتها (مثل: لا تكذب). بالإضافة إلى ذلك ، نظرت Wächter أيضًا في دراستها في نظرية "القيم العالمية" التي طورها شالوم إتش. شوارتز ، والتي تنص على أن هناك عشر قيم أساسية ترتكز عليها جميع الثقافات.
القانون والحشمة
من المثير للاهتمام أن أفعال الروبوت التي كانت نفعية مبررة كانت أسوأ بكثير من غيرها. هذا أمر رائع حيث أن النفعية قد تبدو جذابة لمبرمجي الروبوتات بسبب توجهها على الكميات.
في الواقع ، لقد عبّر المحامون مثل المحامي إريك هيلغندورف من جامعة فورتسبورغ عن قلقهم من أن دمج المركبات المستقلة في حركة المرور ، على سبيل المثال ، يمكن أن يخلط بين النظام القانوني القائم على الأخلاق الأخلاقية. تقترح دراسة وشتير أن مفاهيم القانون والحشمة يبدو أنها متجذرة بشكل أعمق في السكان أكثر من عدد قليل من الرجال الآليين .



وضع القراءة :
حجم الخط
+
16
-
تباعد السطور
+
2
-