Transformers documentation
BERTology
البدء
البرامج التعليمية
تشغيل الاستنتاج باستخدام خطوط الأنابيبكتابة تعليمات برمجية متكيفه باستخدام AutoClassمعالجة البيانات مسبقًاضبط نموذج مسبق التدريبالتدريب باستخدام نص برمجيإعداد تدريب موزع باستخدام 🤗 Accelerateتحميل النماذج المخصصة وتدريبها باستخدام 🤗 PEFTمشاركة نموذجكالتوليد باستخدام LLMsالدردشة مع المحولات
أدلة المهام
معالجة اللغات الطبيعية
أدلة المطورين
استخدم مجزئيات النصوص السريعة من 🤗 Tokenizersالاستدلال باستخدام نماذج متعددة اللغاتاستخدام واجهات برمجة التطبيقات الخاصة بالنموذجمشاركة نموذج مخصصقوالب لنماذج الدردشةالمدربتشغيل التدريب على Amazon SageMakerالتصدير إلى ONNXدفاتر الملاحظات مع الأمثلةموارد المجتمعاستكشاف الأخطاء وإصلاحهاالتوافق مع ملفات GGUFالتوافق مع ملفات TikTokenالوحدات النمطية في `transformers`اختراق النموذج (الكتابة فوق فئة لاستخدامك)
أطر مفاهيمية
BERTology
يُشهد في الآونة الأخيرة نمو مجال دراسي يُعنى باستكشاف آلية عمل نماذج المحولات الضخمة مثل BERT (والذي يُطلق عليها البعض اسم “BERTology”). ومن الأمثلة البارزة على هذا المجال ما يلي:
- BERT Rediscovers the Classical NLP Pipeline بواسطة Ian Tenney و Dipanjan Das و Ellie Pavlick: https://huggingface.co/papers/1905.05950
- Are Sixteen Heads Really Better than One? بواسطة Paul Michel و Omer Levy و Graham Neubig: https://huggingface.co/papers/1905.10650
- What Does BERT Look At? An Analysis of BERT’s Attention بواسطة Kevin Clark و Urvashi Khandelwal و Omer Levy و Christopher D. Manning: https://huggingface.co/papers/1906.04341
- CAT-probing: A Metric-based Approach to Interpret How Pre-trained Models for Programming Language Attend Code Structure: https://huggingface.co/papers/2210.04633
لإثراء هذا المجال الناشئ، قمنا بتضمين بعض الميزات الإضافية في نماذج BERT/GPT/GPT-2 للسماح للناس بالوصول إلى التمثيلات الداخلية، والتي تم تكييفها بشكل أساسي من العمل الرائد لـ Paul Michel (https://huggingface.co/papers/1905.10650):
- الوصول إلى جميع الحالات المخفية في BERT/GPT/GPT-2،
- الوصول إلى جميع أوزان الانتباه لكل رأس في BERT/GPT/GPT-2،
- استرجاع قيم ومشتقات مخرجات الرأس لحساب درجة أهمية الرأس وحذفه كما هو موضح في https://huggingface.co/papers/1905.10650.
ولمساعدتك على فهم واستخدام هذه الميزات بسهولة، أضفنا مثالًا برمجيًا محددًا: bertology.py أثناء استخراج المعلومات وتقليص من نموذج تم تدريبه مسبقًا على GLUE.
Update on GitHub