تقرير: أنظمة الذكاء الاصطناعى لا يمكنها التدريب على محتواها الخاص وتحتاج مساعدة البشر
حققت أنظمة الذكاء الاصطناعى مثل ChatGPT تقدمًا كبيرًا فى السنوات الأخيرة، لكنها لا تزال تعاني من قيود تتطلب تدخلًا بشريًا للتغلب عليها، وأحد القيود الرئيسية هو أن أنظمة الذكاء الاصطناعي لا يمكنها التدريب على محتواها الخاص لتحسين ذكائها، وبدلاً من ذلك، تحتاج إلى مساعدة البشر لتصبح أكثر ذكاءً ودقة.
ووفقًا للدراسة التي أجرتها Nature، تعتمد أنظمة الذكاء الاصطناعي، بما في ذلك ChatGPT، على مجموعات بيانات كبيرة للتعلم وتوليد الاستجابات، ويتم تنظيم هذه المجموعات من البيانات ووضع علامات عليها من قبل البشر، مما يساعد الذكاء الاصطناعي على فهم السياق وأنماط اللغة والفروق الدقيقة المختلفة.
وتتضمن عملية تدريب الذكاء الاصطناعي إطعامه كميات هائلة من البيانات ثم ضبطها بناءً على أدائه، وبدون مدخلات بشرية، يمكن أن تتدهور جودة بيانات التدريب بمرور الوقت، مما يؤدي إلى مخرجات أقل دقة وموثوقية.
إن المشاركة البشرية أمر بالغ الأهمية لعدة أسباب:
– تحتاج أنظمة الذكاء الاصطناعي إلى بيانات عالية الجودة ومتنوعة ومُسمَّاة جيدًا للتعلم بشكل فعال. والبشر ضروريون في تنظيم هذه البيانات والتعليق عليها لضمان ملاءمتها للتدريب.
– في حين يمكن للذكاء الاصطناعي معالجة النص وإنشائه، فإنه غالبًا ما يكافح لفهم سياق ودقائق اللغة، يمكن للبشر توفير السياق الضروري وتصحيح أي سوء فهم قد يكون لدى الذكاء الاصطناعي.
– يمكن لأنظمة الذكاء الاصطناعي أن تتعلم وتكرر عن غير قصد التحيزات الموجودة في بيانات التدريب الخاصة بها. يلعب البشر دورًا حاسمًا في تحديد هذه التحيزات والتخفيف منها لضمان عدالة الذكاء الاصطناعي وأخلاقيته.
– يحتاج الذكاء الاصطناعي إلى تحديث وتحسين مستمرين ليظل ذا صلة ودقيقًا. إن البشر مطلوبون لتوفير بيانات جديدة ومراجعة مخرجات الذكاء الاصطناعي وإجراء التعديلات اللازمة.
وقد تبدو فكرة تدريب أنظمة الذكاء الاصطناعي بنفسها جذابة، لكنها تأتي مع تحديات كبيرة – إذا كان نظام الذكاء الاصطناعي يتدرب على مخرجاته الخاصة، فقد يؤدي ذلك إلى تدهور جودة البيانات بمرور الوقت، وقد يبدأ الذكاء الاصطناعي في توليد محتوى متكرر أو غير منطقي، لأنه يفتقر إلى التحقق الخارجي والتنوع الذي توفره البيانات التي يوفرها الإنسان.
ويمكن تضخيم أي أخطاء موجودة في التدريب الأولي للذكاء الاصطناعي إذا استمر في التدريب على مخرجاته الخاصة، الإشراف البشري ضروري للقبض على هذه الأخطاء وتصحيحها، ومن الصعب تكرار الإبداع والحدس البشري في الذكاء الاصطناعي، ويمكن أن يحد التدريب على مخرجاته الخاصة فقط من قدرة الذكاء الاصطناعي على الابتكار والتكيف مع المواقف الجديدة أو غير المتوقعة.
دور البشر في تطوير الذكاء الاصطناعي
يلعب البشر دورًا كبيرًا في تطوير وصيانة أنظمة الذكاء الاصطناعي مثل ChatGPT:
– يقوم البشر بتسمية البيانات وتصنيفها، مما يوفر السياق والمعلومات اللازمة للذكاء الاصطناعي للتعلم منها.
– في التعلم الخاضع للإشراف، يوجه البشر الذكاء الاصطناعي من خلال تقديم الأمثلة والملاحظات، مما يساعده على فهم وتحسين استجاباته.
– يحدد البشر التحيزات في مخرجات الذكاء الاصطناعي ويتخذون خطوات لتصحيحها، مما يضمن بقاء الذكاء الاصطناعي عادلاً وغير متحيز.
– يضمن البشر أن أنظمة الذكاء الاصطناعي تلتزم بالمبادئ التوجيهية الأخلاقية ولا تسبب ضررًا أو تنشر معلومات مضللة.
في حين أن أنظمة الذكاء الاصطناعي مثل ChatGPT قطعت شوطًا طويلاً، إلا أنها لا تزال تتطلب مشاركة بشرية كبيرة للوصول إلى إمكاناتها الكاملة، ويعد الإدخال البشري ضروريًا لتوفير بيانات عالية الجودة، وضمان المعايير الأخلاقية، وتحسين قدرات الذكاء الاصطناعي باستمرار، ومع استمرار تطور تكنولوجيا الذكاء الاصطناعي، سيكون التعاون بين البشر والذكاء الاصطناعي أمرًا بالغ الأهمية في إنشاء أنظمة ذكاء اصطناعي أكثر ذكاءً وموثوقية وأخلاقية.
للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .