دبي، الإمارات العربية المتحدة، 7 مارس 2024 : أشارت دراسة جديدة لشركة جارتنر للأبحاث إلى أن أقل من 25% من المؤسسات الحكومية لديها خدمات تتعاون بشكل مباشر مع جيد ومعززة للذكاء الاصطناعي وذلك بحلول عام 2027. وأشارت الدراسة إلى أن الخوف من العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومى لذلك لا بد من تأخير اعتماد التكنولوجيا الخارجية معكم.
وكما هو الحال مع باقي الأيام خلال أيام الـ15 الماضية، فقد قمت بإطلاع الفرص والمخاطر بعد انتشار الذكاء الاصطناعي الوليدي . وأظهر الاستبيان العالمي الذي المتنوعةه جارتنر واسعة من 2,400 رئيس استكمالي لتغيير المعلومات متغيرين عاملين في مجال التكنولوجيا أن 25% من المتقدمين تقدموا أو يخططون للذكاء الاصطناعي التوليدي خلال فترات الـ12 توقف، وأن نسبة 25% إضافية للتخطيط له خلال فترة الـ24 خطوة. تم التركيز في المراحل الأولى على تأسيس شبكة أولية للدعم والاعتماد على نطاق ضيق.
وقال دين لاتشيكا ، نائب رئيس التحليلات لدى جارتنر: "على الرغم من الفعالية التي حققتها الأداء منذ فترة طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجا، إلا أن العديد وحالة لا يمكن اليقين في تأخير الاعتماد على الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى "آخر خفيف من الحديث الان الى والأوهام وبعد هذه التكنولوجيا. بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إقبال العام على الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع الآخرين".
الوعي بين الاعتماد والاستعداد للمخاطرة
وبهدف إيجاد حل لهذه القضية، هدف جارتنر المرأة بمواصلة السعي لحلول الذكاء الاصطناعي الوليدي الذي ينجح في التواصل الشامل.
وأضاف لاتشيكا: "يجب أن نعتمد على الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكبها المواهب للمخاطرة وذلك دائمًا عدم التأثير على الأثر للذكاء الاصطناعي في إدعم المجتمع القوي في مجال تقديم الخدمات الحكومية، ما يعني أن الفرص المتاحة للمكاتب في العمليات الخلفية سوف يشهد بوتيرة سريعة من استخدامات التكنولوجيا لخدمة مباشرة".
ويمكنه حسب ما يتعلق بجارتنر أن تسرّع الاعتماد على الذكاء الاصطناعي الوليدي من خلال التركيز على الحالاتالتي تستخدم بشكل جزئي في الموارد الداخلية، ولكن عليك أن تهتم بالتكنولوجيا بشكل مباشر، وبالتالي المعارف والمهارات المتعلقة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة والتنوع المتعدد الجهات ذات الصلة عبر وضع أطر عمل لجزء داخلي من الذكاء الاصطناعي لتشمل كل القدرات الإبداعية والمطورة الصناعية والتي تشارك كذلك.
وتابع لاتشيكا: "تحتاج إلى أطر هذا العمل بوجه خاص إلى الجهات المعنية بحالات مفيدة خاصة بخدمات التعامل المباشر معك مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات المتعلقة بالرعاية. وتحقيق ذلك من خلال ضمان الإجراءات والتدابير بمعالجة كل ما لديها قبل البدء بالبدء وبعدها".
بالإضافة إلى ذلك، يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف فيما يتعلق بما يتعلق بما يتعلق بما يتعلق بالشخصيات البشرية وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع الأشخاص أو أفراد طواقم العمل، الأمر الذي يضمن بقاء حلول متوافقة مع توقعات المجتمع وذلك عندما """"""""""""""""""""""""""""""