من يقود المستقبل.. البشر أم الآلات؟

وكالات – سودان لايت

على الرغم من التطورات المذهلة في علوم الحوسبة البشرية التي جعلت الذكاء الاصطناعي على عتبة نقطة تحول فريدة في تاريخه، إلا أن هناك ثلاثة محاور رئيسة تدعو إلى القلق الأخلاقي للمجتمع؛ هي: الخصوصية والتحيز والتقييم البشري. وتزداد تلك المخاوف بعد أن عزم العالم على إعطاء زمام القيادة للذكاء الاصطناعي في إدارة كل شيء مستقبلاً، مثل البيئة والاقتصاد والأمن والبنية التحتية وإنتاج الغذاء والرعاية الصحية، وإلى حد كبير الأنشطة الشخصية، وفق دراسة حديثة لجامعة «ستانفورد» الأمريكية كما ذكرت البيان.

خلال السنوات الخمس الماضية، أعرب الراحل ستيفن هوكينج، وإيلون ماسك، وستيف وزنياك، وبيل جيتس، والعديد من الأسماء الكبيرة الأخرى في العلوم والتكنولوجيا عن قلقهم في وسائل الإعلام وعبر رسائل مفتوحة حيال المخاطر التي يشكلها الذكاء الاصطناعي، والتي انضم إليها العديد من الباحثين البارزين في هذا المجال الذي من المتوقع أن يصل حجم استثماراته عالمياَ إلى 110 مليارات دولار بحلول عام 2024 وفقاً لمؤسسة «آي دي سي»، فيما زاد انتشاره في الشركات في الشرق الأوسط من 45% في 2020 إلى 57% العام الماضي في نشاط واحد على الأقل مع توقع استمرار تسارع وتيرة تبني هذه التقنيات.

ولطالما كان يُنظر إلى فكرة تطور الذكاء الاصطناعي إلى ذكاء خارق يفوق ذكاء البشر ويتحكم بهم على أنه مجرد خيال علمي بعيد المنال. ولكن تمكن الذكاء الاصطناعي خلال السنوات الخمس الماضية من تحقيق اختراقات كانت تعتبر على أنها على بعد عقود عديدة.

ويقول خبراء إن استراتيجية الإمارات للذكاء الاصطناعي 2031 تمهد الطريق أمام اتباع ممارسات آمنة وأخلاقية وشفافة في مجال الذكاء الاصطناعي، مع ترسيخ سمعة البلاد كرائد عالمي في مجال الذكاء الاصطناعي. وتتضمن حاليًا تصميم وتمكين أنظمة الذكاء الاصطناعي التي تقدم أفضل قيمة للمجتمع، بما في ذلك تطوير وتنمية المواهب الشابة لتكون جاهزة لعصر الذكاء الاصطناعي.

ولفت الخبراء إلى أن الذكاء الاصطناعي يتطلب وضع سياسات مدروسة للتدخل لضمان توظيفه كقوة لأجل الخير. وأن يتم نشر الوعي بمخاطر الذكاء الاصطناعي ومن ثم تصميم التقنيات اللازمة لتجنب هذه المخاطر ومنع حدوثها.

الخدمات المالية

وقال أشرف دريد الرئيس التنفيذي في شركة «إكس تي بي» للوساطة والحلول المالية، إن استراتيجية الذكاء الاصطناعي لدولة الإمارات هي استراتيجية طموحة، وتضع الحكومة من جديد في طليعة الاتجاهات التكنولوجية لتكون دائماً على استعداد للتعامل مع أي تغييرات مستقبلية في المشهد العالمي، وهو ما يمنحها ميزة تنافسية في مختلف القطاعات وقدرة على خلق دفعة اقتصادية كبيرة.

وأضاف: بالطبع هنالك محاذير من الاستخدام غير المحسوب للذكاء الاصطناعي. ومن المؤكد أن التطبيق الأكثر أماناً لتقنيات الذكاء الاصطناعي سوف يطمئن المستثمرين والأفراد حول قدرة الإمارات على التكيف والتطوير تقنياً واقتصادياً ومالياً.

وحول قدرة الذكاء الاصطناعي على تغيير المشهد في الخدمات المالية، قال: في القطاع المالي، يمكن أن تستخدم خوارزميات الذكاء الاصطناعي في إدارة المخاطر الخاصة بالقروض المصرفية، والحؤول دون الاستخدام غير الأخلاقي للبيانات. كما يمكن للضوابط ضمان توافق التطورات التكنولوجية مع رؤية الدولة لبناء اقتصاد مزدهر وبيئة استثمار آمنة للجميع.

وأوضح أن تقنيات الذكاء الاصطناعي هي محط تركيز الصناعة المالية لبعض الوقت الآن ويتم تطويرها ونشرها بنشاط عبر مختلف الحلول والمنتجات. وأضاف: ستفتح التطورات التكنولوجية الأسواق المالية أمام عدد متزايد من السكان الذين لن لم يكونوا قادرين على الوصول لتلك الأسواق من قبل بسبب نقص خبرتهم المالية أو التعليمية. ويمكن أن تساعد الأدوات التي تعمل بالذكاء الاصطناعي المستثمرين الأفراد في تبسيط عملية صنع القرار وزيادة حجم زيادة الصناعة ورأس المال المتاح. وطبعاً يتطلب ذلك مسؤولية إضافية تتمثل في مراقبة واكتشاف ومنع الاحتيال والتدفقات المالية غير القانونية – وهو جانب يمكن أن يساعد فيه الذكاء الاصطناعي أيضاً.

السياحة والسفر

ووصف ساتشين جادويا، الشريك المؤسس في منصة «مسافر.كوم» استراتيجية الإمارات للذكاء الاصطناعي بأنها جريئة وشاملة، في حين أنها في جوهرها موجهة نحو جعل سكان الدولة أكثر أماناً وصحة وسعادة، لافتاً إلى أن توظيف الذكاء الاصطناعي أصبح من أهم ركائز المنافسة بل والاستمرار في قطاع السياحة والسفر والضيافة.

وأضاف أن لعب حكومة الإمارات دوراً مباشراً في تصميم وتمكين أنظمة الذكاء الاصطناعي سيمكنها من تحديد أي عواقب محتملة غير مقصودة للذكاء الاصطناعي في وقت مبكر ما يضمن استخداماً أكثر أماناً للذكاء الاصطناعي.

وأوضح جادويا: من الضروري وضع ضوابط لاستخدامات الذكاء الاصطناعي نظراً لاحتمال أن يكون له تأثير كبير على حياتنا. على سبيل المثال، يتم استخدام الذكاء الاصطناعي على نطاق واسع عبر العديد من الصناعات من تحديد الجدارة الائتمانية للفرد إلى التنبؤ بالدرجات المدرسية للأطفال، لذلك من الضروري أن يتم تنظيم الذكاء الاصطناعي لحماية أنفسنا واستخدام التكنولوجيا دون التلاعب أو التحيز.

وحول رؤيته لمستقبل السفر والسياحة حيث يتم نشر المزيد من الذكاء الاصطناعي في الصناعة وما يجب على قادة الصناعة فعله في هذا المجال، قال: يتم استخدام الذكاء الاصطناعي منذ مدة في صناعة السفر والضيافة من الحملات التسويقية ذات الخصوصية العالية إلى إدارة العمليات. ويمكننا أن نرى زيادة استخدام الذكاء الاصطناعي بشكل كبير في صناعة السفر ليس فقط لتحسين تجربة العملاء ولكن أيضاً لتحسين عمليات الدعم لمقدمي خدمات السفر. نحن في «مسافر» مثلاً نخطط لنقل روبوت المحادثة إلى المستوى التالي من خلال الذكاء الاصطناعي من خلال تقديم مساعد افتراضي ذكي يمكنه توجيه المسافرين من خلال اقتراح مسارات مخصصة وتحديد أفضل وقت للرحلات بناءً على التكلفة والطقس والعطلات المدرسية وما إلى ذلك. قادة صناعة السفر الذين يستثمرون في هذا المجال هم الذين سيظلون موجودين في غضون السنوات الخمس المقبلة.

تطوير التقنيات

وقال وائل عبدوش، مدير عام شركة «أي بي أم» في منطقة الخليج والمشرق العربي وباكستان إن «أي بي أم» تُدرك الالتزام الكبير الذي يقع على عاتق المؤسسات المتخصصة بتطوير ونشر تقنيات الذكاء الاصطناعي، والذي يحتم عليها وضع الأشخاص ومصالحهم في صميم الأهداف المرجوة من التكنولوجيا لضمان استخدامها بشكل مسؤول، والتأكد من وصولها إلى الجميع للانتفاع بفوائدها دون استثناء. وتعمل «أي بي أم» على تطوير الأفكار القيادية ووضع السياسات العامة التي تضمن استفادة مختلف فئات المجتمع من فوائد التكنولوجيا الحديثة مع التحكم في الوقت ذاته بمخاطرها بطرق مدروسة وقابلة للقياس.

أخلاقيات

ولفت عبدوش إلى أن أخلاقيات الذكاء الاصطناعي تستند إلى مبادئ الثقة والشفافية لشركة «أي بي أم» والتي تتمثل في أن الهدف الأساسي من وراء تطوير تقنيات الذكاء الاصطناعي يتمثل في تعزيز قدرات العقل البشري، وليس تطوير الآلات التي تحل محل البشر؛ فالذكاء الاصطناعي هو علاقة تكاملية بين الإنسان والآلة طُورت لمساعدة الأشخاص على القيام بعملهم بشكل أفضل.

وأضاف: كما إن البيانات وتحليلاتها هي مُلك من يُنشِئها، وبالتالي فإن بيانات وتحليلات العملاء هي مُلك لهم وليست ملكاً لنا. ويجب أن تتسم التقنيات الجديدة، مثل الذكاء الاصطناعي، بالشفافية والقدرة على شرح وتفسير الأهداف المرجوة منها.

وقال ستيفن جيل، الرئيس الأكاديمي لكلية الرياضيات وعلوم الكمبيوتر، في جامعة «هيريوت وات دبي»، إنه مع توسع استخدام الذكاء الاصطناعي بشكل كبير، أصبحت المسؤولية الاجتماعية وأخلاقيات وإرشادات استخدام الذكاء الاصطناعي موضوعاً بالغ الأهمية.

وأضاف: هناك ثلاثة محاور رئيسية للذكاء الاصطناعي تدعو للقلق الأخلاقي للمجتمع هي الخصوصية والمراقبة، والتحيز والتمييز والتقييم البشري. أصبحت المناقشات حول ضمانات الخصوصية وحول كيفية التغلب على التحيز في اتخاذ القرارات الحسابية في إصدار الأحكام والإفراج المشروط على سبيل المثال وممارسات التوظيف مألوفة الآن. لقد ظهرت بالفعل أدلة على أن الخوارزميات تميل إلى تحيزات عرقية وجنسانية. على سبيل المثال، تم سحب عدد قليل من تطبيقات الهواتف الذكية لحجب إعلانات الخدمات المالية عن المستخدمين الإناث. إضافة إلى ذلك، تم اكتشاف أن بعض تقنيات التعرف على الوجه تقوم بذلك بشكل خاطئ في التعرف على الأشخاص الملونين. لذلك، تتم مناقشة التدخل البشرى على نطاق واسع بين صانعي القرار حيث ثبت أن الخوارزميات يمكن أن تخطئ دون تدخل بشري في مراحل معينة.

حماية البيانات

ويوفر قانون حماية البيانات الصادر في سبتمبر 2021 وضوحاً كبيراً فيما يتعلق بجمع البيانات ومعالجتها ومراجعتها ونقلها لاستخدامها بشكل آمن في تقنيات الذكاء الاصطناعي. وتم تطوير القانون بما يتماشى مع أفضل الممارسات العالمية ويفرض الامتثال للشركات التي تمتلك بيانات شخصية للمستهلكين. تم تطوير هذا بعد الاعتراف بالحاجة إلى التخزين والحماية الموثوقين، لا سيما بالنظر إلى الاستراتيجيات الوطنية للبلد التي تشجع نشر الذكاء الاصطناعي والحوسبة السحابية وإنترنت الأشياء.

بالإضافة إلى ذلك، طورت هيئة دبي الرقمية، وهي مبادرة حكومية، مجموعة أدوات أخلاقية للذكاء الاصطناعي لدعم الصناعة والأوساط الأكاديمية والأفراد في فهم كيفية استخدام أنظمة الذكاء الاصطناعي بشكل مسؤول. وهو يتألف من مبادئ وإرشادات وأداة تقييم ذاتي للمطورين لتقييم منصاتهم. هذه المبادرات التي ترعاها الحكومة ضرورية لتشجيع الاستخدام المسؤول والأخلاقي للذكاء الاصطناعي.

 

Leave A Reply

Your email address will not be published.