عميد كلية العلوم يحاضر في دورة تدريبية حول الذكاء الاصطناعي.
حاضر السيد عميد كلية العلوم الأستاذ الدكتور طه محمد حسن المحترم والأستاذ الدكتور جمانةوليد التدريسية من قسم علوم الحاسوب بدورة تدريبية حول “المحولات التوليدية المُدرَّبة مسبقًا والذكاء الاصطناعي الفوقي لنماذج اللغات الكبيرة: الإجابة على الأسئلة، تلخيص النصوص، توليد محتوى إبداعي، وغيرها”،وأقيمت على قاعة المناقشات في عمادة الكلية تناول المحاضرين في الدورة التأثير الثوري للمحولات التوليدية المُدرَّبة مسبقًا (GPT) ونماذج اللغات الكبيرة (LLMs) التي طورتها OpenAI. والتي غيّرت هذه النماذج كيفية تفاعل الذكاء الاصطناعي مع اللغة، مما أتاح توليد محتوى عالي الجودة، والإجابة على الاستفسارات المعقدة، وتلخيص مجموعات البيانات الضخمة بكفاءة.تضمنت الدورة ايضا بنية GPT، مع التركيز على تصميمها القائم على المحول، وآلية التركيز الذاتي، وعملية التدريب ثنائية المراحل التي تشمل التدريب المسبق على بيانات الإنترنت الشاملة والضبط الدقيق لتطبيقات محددة. كما سلِّطت الضوء على القدرات الواسعة لـ GPT، بدءًا من الإجابة على الأسئلة وتلخيص النصوص وصولًا إلى توليد محتوى إبداعي مثل المقالات والإعلانات.بالإضافة إلى استعراض التنوع المذهل لـ GPT، ناقشت الدورة تطبيقاته في مختلف القطاعات، بما في ذلك خدمة العملاء، وإنشاء المحتوى، والبحث والتعليم. كما تناولت الدور الناشئ للذكاء الاصطناعي الفوقي (Meta AI)، من خلال دمج GPT مع القدرات متعددة الوسائط لتعزيز دور الذكاء الاصطناعي في مجالات مختلفة، مثل التعليم والتسويق والرعاية الصحية. تم التطرق ايض الى التحديات والقيود الرئيسية لـ GPT، بما في ذلك المخاوف الأخلاقية، والتحيز في البيانات، وقضايا الخصوصية، والتكلفة الحسابية العالية لتدريب هذه النماذج. وأخيرًا، تم تحديد التوجهات المستقبلية في تطوير GPT، بما في ذلك الجهود المبذولة لتحسين الدقة، وتعزيز الذكاء الاصطناعي الأخلاقي، واستكشاف إمكانات النماذج متعددة الوسائط التي تجمع بين النص والرؤية والكلام.توفر هذه الدورة فهمًا شاملًا لـ GPT وإمكاناته التحويلية في مجال الذكاء الاصطناعي، مما يُعزز النقاشات حول التطوير والتطبيق المسؤول لهذه الأدوات القوية في المجتمع الحديث.التوصيات:يجب على المطورين والباحثين إجراء عمليات تدقيق منتظمة على مخرجات الذكاء الاصطناعي، والالتزام بالمبادئ التوجيهية الأخلاقية لضمان الاستخدام المسؤول للذكاء الاصطناعي، ومنع إساءة استخدامه لأغراض ضارة.لبناء الثقة في أنظمة الذكاء الاصطناعي، يجب إعطاء الأولوية للشفافية وقابلية الشرح. يجب أن يكون المستخدمون قادرين على فهم كيفية وسبب اتخاذ نماذج الذكاء الاصطناعي للقرارات.بما أن نماذج اللغات الكبيرة تُدرّب على مجموعات بيانات ضخمة، فإن حماية خصوصية البيانات الشخصية أمر بالغ الأهمية. يجب الحد من خطر تسرب البيانات أو الكشف غير المقصود عن المعلومات الحساسة.يكمن مستقبل الذكاء الاصطناعي في الأنظمة متعددة الوسائط التي تجمع بين النصوص والصور والكلام وأشكال الإدخال الأخرى. إن توسيع قدرات GPT والنماذج المماثلة للتعامل مع البيانات متعددة الوسائط سيعزز تطبيقاتها بشكل كبير.ينبغي على الحكومات والمؤسسات التعليمية وشركات التكنولوجيا التعاون لدمج الأدوات التعليمية المُعتمدة على الذكاء الاصطناعي، والتي تُلبي مختلف أنماط التعلم واللغات، مما يضمن الشمولية في التعليم.يجب على الشركات والمؤسسات الأكاديمية والهيئات الحكومية إقامة شراكات لاستكشاف تطبيقات الذكاء الاصطناعي متعددة التخصصات، وتبادل الموارد والخبرات لتسريع الابتكار.ينبغي للهيئات التنظيمية أن تعمل بشكل وثيق مع مطوري الذكاء الاصطناعي وأصحاب المصلحة لوضع إرشادات ومعايير واضحة للاستخدام الأخلاقي والشفافية والمساءلة لتقنيات الذكاء الاصطناعي


