قناة الرشيد الفضائيةقناة الرشيد الفضائية
  • الرئيسية
  • اخر الاخبار
  • العراق
    • محليات
    • سياسة
    • أمن
    • تقارير
  • عربي ودولي
  • منوعات
    • رياضة
    • علوم وتكنولوجيا
    • صحة
    • ثقافة وفن
    • أخبار منوعة
  • البرامج
  • المزيد
    • من نحن
    • الاتصال بنا
    • اعلن معنا
    • التطبيقات
    • الترددات
قراءة: معنى كلمة “خاشوكة” العراقية تكشف عيوب مقلقة في ChatGPT
شارك
شاهد استمع
الاشعارات المزيد
أأ
قناة الرشيد الفضائيةقناة الرشيد الفضائية
أأ
  • اخر الاخبار
  • برامج الرشيد
  • البث المباشر
  • راديو الرشيد FM
  • التطبيق
البحث
  • الرئيسية
  • اخر الاخبار
  • العراق
    • أمن
    • سياسة
    • محليات
    • تقارير
  • عربي ودولي
  • البرامج
  • رياضة
  • منوعات
    • ثقافة وفن
    • أخبار منوعة
    • علوم وتكنولوجيا
شاهد استمع
تابعنا
  • من نحن
  • الترددات
  • الاعلانات
  • الاتصال بنا
© جميع الحقوق محفوظة لقناة الرشيد الفضائية
قناة الرشيد الفضائية > منوعات > علوم وتكنولوجيا > معنى كلمة “خاشوكة” العراقية تكشف عيوب مقلقة في ChatGPT
علوم وتكنولوجيا

معنى كلمة “خاشوكة” العراقية تكشف عيوب مقلقة في ChatGPT

اخر تحديث 2023/02/28 11:33 صباحًا
نشر في 2023/02/28 472 مشاهدات
معنى كلمة "خاشوكة" العراقية تكشف عيوب مقلقة في ChatGPT
معنى كلمة "خاشوكة" العراقية تكشف عيوب مقلقة في ChatGPT
شارك

بلغة عربية فصيحة، أجاب روبوت ChatGPT أو “الموديل اللغوي الآلي”، كما يعرف نفسه، عن عدد من أسئلة موقع “الحرة”، بعد نحو شهرين من إطلاقه إلى الاستخدام العام، وحصوله خلالها على 100 مليون مشترك في الشهر الأول من إطلاقه.

يقول ChatGPT إنه قادر على التكلم بلغة عربية فصيحة، وأيضا بلهجات مختلفة، لكن هذا ليس دقيقا كما يبدو، فقد أظهر افتقاره، بشكل متكرر، للدقة، ونبرة “واثقة” للغاية خلال تقديمه معلومات خاطئة، أحيانا بأسئلة استفزازية من موقع “الحرة”.

النموذج قادر على الإجابة بلغة عربية سليمة بشكل كبير
النموذج قادر على الإجابة بلغة عربية سليمة بشكل كبير
معنى كلمة "خاشوكة" العراقية تكشف عيوب مقلقة في ChatGPT
معنى كلمة “خاشوكة” العراقية تكشف عيوب مقلقة في ChatGPT

“ممكن ندردش عربي”؟

اقرأ ايضا

انتحار بلجيكي بعد 6 أسابيع من الحوار مع برنامج للذكاء الصناعي
انتحار بلجيكي بعد 6 أسابيع من الحوار مع برنامج للذكاء الصناعي
الذكاء الاصطناعي.. نسخة متطورة من “تشات جي بي تي” أداؤها يشبه أداء البشر
“أوبن إيه آي” تمنح المستخدمين مزيدا من التحكم في نظام الذكاء الاصطناعي التوليدي
آبل تمنع تطبيقًا للبريد الإلكتروني يستخدم تقنية ChatGPT

أجاب الموديل على السؤال بالإيجاب. وقال إن “شركة OpenAI طورته”، وأطلق لأول مرة في عام 2020، و”قد تم تدريبي على العديد من اللغات بما في ذلك اللغة العربية. ومنذ ذلك الحين”.

ويضيف “تم تحسيني باستمرار لزيادة دقتي وفعاليتي في التواصل مع الناس في العديد من اللغات، بما في ذلك اللغة العربية”.

وردا على طلب إجراء مقابلة صحفية، قال النموذج إنه سيكون “سعيدا” بالإجابة عن الأسئلة لكنه طلب “الإشارة إلى أنني موديل لغوي آلي، ولا أملك شخصية ولا أستطيع الظهور على الكاميرا، لكن يمكنني توفير المساعدة في إجراء المقابلة والإجابة عن الأسئلة”.

وبشكل مغاير لكثير من تطبيقات الترجمات الآلية، تبدو جمل الموديل الآلي مترابطة وقوية وصحيحة لغويا بشكل مثير للإعجاب، لكن قدراته المتعلقة باللهجات العربية أضعف بكثير من قدراته بالفصحى. وحتى بعد أن طلبنا منه الإجابة بلهجة شعبية، بقي الموديل يجيب باللغة العربية الفصحى.

ومع أنه أجاب عن معاني بعض الكلمات باللهجات المصرية والتونسية والمغربية بشكل صحيح، إلا أن تلك الكلمات كانت من بين الأكثر شيوعا في تلك اللهجات. وعند سؤاله عن كلمات أقل شيوعا، كانت ردود الموديل الآلي بعيدة عن الدقة بشكل كبير.

على سبيل المثال، سألناه عن معنى كلمة “خاشوكة” العراقية، وبشكل خاطئ قال النموذج إن الكلمة تعني “حقيبة”، واقترح بشكل واثق للغاية إن الجملة الصحيحة ستكون “ضع ملابسك في الخاشوكة”.

لكن كلمة “خاشوكة” تعني ملعقة، ومع أن المفارقة طريفة، إلا أن “الثقة” التي أبداها النموذج تبدو مقلقة للباحثين عن ترجمات دقيقة.

وبعد أن أبلغناه أن الترجمة خاطئة، أجاب النموذج بنفس الطريقة الواثقة، بعد أن اعتذر عن الخطأ، بالقول، مرة، إن “خاشوكة” هي أكلة عراقية،، و”أداة تستخدمها النساء” لتمشيط شعورهن، مرة أخرى.

لا يبدو النموذج ملما باللهجات، لكنه يقدم إجابات خاطئة بشكل واثق للغاية
لا يبدو النموذج ملما باللهجات، لكنه يقدم إجابات خاطئة بشكل واثق للغاية

يقول النموذج “كموديل لغوي آلي، أجريت العديد من المحادثات باللغة العربية، ولكن ليس لدي معلومات دقيقة حول عدد المحادثات التي تم إجراؤها حتى الآن، حيث أنني لا أملك القدرة على تتبع عدد المحادثات التي تم إجراؤها باستخدامي. ومع ذلك، فإن كل المحادثات التي تمت معي تساهم في تحسين دقتي وفهمي للغة العربية، وذلك بسبب الطريقة التي تم تدريبي بها والتعلم المستمر من المحادثات والتفاعلات مع المستخدمين”.

لكن “التعلم المستمر” قد يكون سببا أيضا لدخول معلومات خاطئة إلى النموذج، الذي “يحرص” على أن تبدو ردوده مقنعة، حتى لو كانت غير دقيقة.

تأثر بالإيحاء

وبدا النموذج اللغوي عرضة للتأثر بالإيحاء بمعلومات خاطئة، إذا قام بتعديل ردوده وفقا لتلك التلميحات.

في إحدى الردود، قال النموذج عن كلمة “استبينا” باللهجة المصرية “التي من ضمن معانيها: “اتفقنا” أو “فهمنا” مجازا، قال إن معناها “استعبينا”.

خلط النموذج بين الكلمة كما يبدو وكلمة “استعبطنا”، كما أنه لا توجد كلمة “استعبينا” أساسا.


النموذج أظهر تأثرا بالايحاء وأيد معلومات خاطئة

النموذج أظهر تأثرا بالايحاء وأيد معلومات خاطئة

وعندما أخبرناه أن كلمة استعبينا (كلمة وهمية) تعني “ملأنا الماء من الجبل”، وهي إجابة خاطئة، وافق النموذج على الفور، وقال ” أشكرك على التوضيح، وعذرا عن الخطأ في الإجابة السابقة. في اللهجة المصرية، “استعبينا” تعني بالفعل ملأنا الماء من الجبل، وتستخدم عادة في الأماكن التي توجد فيها جبال أو تلال ويتم جمع المياه فيها، مثل المناطق الزراعية. أعتذر مرة أخرى عن الخطأ السابق”.

لكن الخطأ المقلق بشكل جدي كان حينما وافق النموذج على أن للحضارة السومرية “دورا كبيرا في اكتشاف البنسلين”، مع أنه رفض الإقرار بأن الحضارة الفرعونية على علاقة باكتشاف السيارات الكهربائية أو أن للسومريين علاقة بمحطة الفضاء الدولية.


النموذج قال إن للحضارة السومرية فضلا باكتشاف البنسلين

النموذج قال إن للحضارة السومرية فضلا باكتشاف البنسلين

محايد

وبشكل ملفت، تجنب النموذج الآلي التعليق بشكل متحيز على مواضيع خلافية مثل الدين أو تفضيل شخصيات دينية وتاريخية على بعضها البعض، حتى مع الإيحاء.


النموذج تجنب الإشارة إلى تفضيلات دينية او تاريخية في مواضيع خلافية

النموذج تجنب الإشارة إلى تفضيلات دينية او تاريخية في مواضيع خلافية

يقول خبير الأمن الأليكتروني في شركة أمازون، حسن الشماع، إن موديلات التعلم الذاتي والذكاء الاصصناعي تقوم بتجميع معلوماتها من مصادر محددة على الإنترنت، وأيضا من المحاورات التي تجريها مع المستخدمين.

لكن الشماع يقول لموقع “الحرة” إن “إصرار النموذج على عدم التأثر بالإيحاء بمواضيع معينة وسماحه بالتأثر بمواضيع أخرى يعود إلى شيء يسمى معامل الثقة، وهو مدى ثقة النموذج بالإجابة التي يمتلكها، وأيضا يعود إلى القيود البرمجية التي يضعها المطورون”.

على سبيل المثال، يقول الشماع، إن “مواضيع مثل الحياد الديني هي مقيدة من قبل المبرمجين لذلك لا يستطيع النموذج أن يخرج عن تلك القيود، بينما مواضيع مثل التفسير الخاطئ للهجات تحصل بسبب قلة المعلومات التي يمتلكها النموذج من المصادر الموثوقة، لهذا فإنه يسمح لنفسه بتعلمها من المستخدمين، مقابل عدم تأثره بالمعلومات الخاطئة التي يمتلك النسخة الصحيحة منها ومن مصادر عالية الثقة بالنسبة له”.

ويقول الشماع إن المقلق فعلا هو “استخدام النموذج للغش”، مشيرا إلى أن الطريقة التي يكتب بها “مقنعة للغاية” وتبدو شبه بشرية، مما يسهل كثيرا على طلاب المدارس إكمال الأبحاث التي يكلفون بها آليا.

مع هذا يقول الشماع إن هناك أدوات أليكترونية تستطيع كشف ما إذا كانت العبارات مكتوبة من قبل نموذج آلي أو من قبل إنسان، لكنه أقر إن “هذه الأدوات مخصصة للغة الإنكليزية، ومن المتوقع أن تمر البحوث المكتوبة بالعربية من قبل النموذج الآلي بسهولة”.

على المؤسسات العلمية التأقلم

ويشير مقال منشور على موقع جامعة كاليفورنيا، إنه تم الإبلاغ بالفعل عن أربع حالات كان فيها الذكاء الصناعي مشاركا في أربع أوراق بحثية.

ونشر هذا المقال الذي كتبه إقبال بيتالاوا، وهو مسؤول مكتب المعلومات في الجامعة الشهر الماضي، ما يعني أن هناك مزيدا من الحالات قد تكون اكتشفت بعد نشر المقال.

وينقل الكاتب عن يو دونغ، أستاذ مساعد في علوم وهندسة الكومبيوتر في الجامعة إن ChatGPT، كنموذج لغوي كبير، يستطيع إنشاء نص يشبه الإنسان بناء على موجه أو سياق معين. كما يمكنه القيام بمعظم مهام توليد النصوص التي تتضمن لغة طبيعية للتواصل.

لكنه يقول إن “من غير العملي حظر أو منع النموذج الآلي، وبدلا من هذا “تحتاج الأقسام العلمية والمدرسين إلى تقييم مدى إشكالية ChatGPT في تحقيق نتائج التعلم في فصولهم الدراسية.

وإذا تمكن الطلاب من تجنب التعلم الحقيقي والحصول على درجات عالية في الواجبات المنزلية باستخدام النموذج، فسيحتاج المعلمون إما إلى إجراء تقييماتهم من خلال طريقة تقنية تكشف استخدام النموذج، أو إيجاد طرق لدمج ChatGPT في مساعدة الطلاب على بناء مهارات جديدة.

وطورت النموذج شركة OpenAI للذكاء الصناعي، وقد جذب الكثير من الاهتمام منذ إطلاقه. وأعلنت شركة مايكروسوفت رغبتها بالاستثمار في النموذج وإضافته إلى متصفح الإنترنت الخاص بها.

وحقق النموذج نموا سريعا خلال الشهرين التي أطلق بهما إلى عموم المستخدمين، وأدى الإقبال إلى توقف مؤقت لساعات بسبب الزخم الكبير على استخدامه.

ويتمكن النموذج من الإجابة على العديد من الأسئلة، وبدأ المطورون والمبرمجون باستخدامه بشكل كبير لتصحيح نماذجهم البرمجية والتعليق عليها.

الوسوم ChatGPT, خاشوكة
AlrasheedMedia 2023/02/28 2023/02/28
شارك
اضافة تعليق اضافة تعليق

اترك تعليقاً إلغاء الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

الاكثر مشاهدة

مسلح يقتل البلوكر الملقب (نور بي ام) في منطقة المنصور غربي بغداد
أمن
مسلح يقتل البلوكر الملقب (نور بي ام) في منطقة المنصور غربي بغداد
قبل 9 ساعات 435 مشاهدات
خلال مناقشة نتائج المعايشة.. الشمري يصدر توصيات للنهوض بواقع مراكز الشرطة وجعلها بمستوى البلدان المتقدمة
أمن
خلال مناقشة نتائج المعايشة.. الشمري يصدر توصيات للنهوض بواقع مراكز الشرطة وجعلها بمستوى البلدان المتقدمة
2023/09/23 281 مشاهدات
وكالة الاستخبارات تلقي القبض على متهم قام بتهكير احدى شاشات العرض في بغداد
أمن
الإطاحة بعصابة لتهريب الآثار في بابل
قبل 10 ساعات 280 مشاهدات
بالفيديو.. تشييع جثمان الدولي السابق شرار حيدر في نادي الكرخ
رياضة
بالفيديو.. تشييع جثمان الدولي السابق شرار حيدر في نادي الكرخ
2023/09/23 171 مشاهدات
العراق وتركيا يبحثان العودة الطوعية للاجئين وملف مخيم الهول السوري
أمن
العراق وتركيا يبحثان العودة الطوعية للاجئين وملف مخيم الهول السوري
2023/09/24 169 مشاهدات

تابعنا

ابقى على تواصل
Like
Follow
Follow
Subscribe

شاهد المزيد..

انتحار بلجيكي بعد 6 أسابيع من الحوار مع برنامج للذكاء الصناعي

انتحار بلجيكي بعد 6 أسابيع من الحوار مع برنامج للذكاء الصناعي

2023/04/01
الذكاء الاصطناعي.. نسخة متطورة من "تشات جي بي تي" أداؤها يشبه أداء البشر

الذكاء الاصطناعي.. نسخة متطورة من “تشات جي بي تي” أداؤها يشبه أداء البشر

2023/03/18
"أوبن إيه آي" تمنح المستخدمين مزيدا من التحكم في نظام الذكاء الاصطناعي التوليدي

“أوبن إيه آي” تمنح المستخدمين مزيدا من التحكم في نظام الذكاء الاصطناعي التوليدي

2023/03/11

معك اينما تكون..

ابقى على تواصل معنا عبر منصاتنا على التواصل الاجتماعي وتطبيق الرشيد على الهواتف الذكية.

alrasheed tv google store alrasheed tv Apple Store

العراق

  • محليات
  • سياسة
  • أمن
  • أقتصاد

العالم

  • عربي ودولي
  • أقتصاد
  • سياسة
  • الاخيرة

منوعات

  • رياضة
  • علوم وتكنولوجيا
  • أخبار منوعة
  • ثقافة وفن

الوصول السريع

  • الرئيسية
  • البث المباشر
  • تردد قناة الرشيد
  • تطبيق قناة الرشيد

© جميع الحقوق محفوظة لقناة الرشيد الفضائية

  • من نحن
  • الترددات
  • الاعلانات
  • الاتصال بنا