الانتباه هو كل ما تحتاجه
مقالة علمية (نشرت في 12-6-2017)
الانتباه هو كل ما تحتاجه [1] دراسة بحثية مبتكرة في مجال تعلم الآلة نُشرت عام 2017،[2][3] أعدها ثمانية باحثين من شركة جوجل. قدمت الورقة نموذجًا ثوريًا في التعلم العميق يُدعى "المحوِّل" (Transformer)، مستندًا إلى آليات الانتباه التي طورها باهدانو وزملاؤه عام 2014.[4] تُعد هذه الدراسة مرجعًا محوريًا في تطور الذكاء الاصطناعي المعاصر، [5] إذ شكلت بنية المحوِّل الأساسَ للنماذج اللغوية الضخمة مثل عائلة نماذج جي بي تي. ركز البحث آنذاك على تطوير تقنيات "التسلسل إلى تسلسل" (Seq2seq) في الترجمة الآلية، لكن المؤلفين توسعوا في استشراف تطبيقات هذه التقنية في مهام متنوعة كالإجابة على الاستفسارات ومهام الذكاء الاصطناعي التوليدية متعددة الوسائط التي تُستخدم اليوم. [1]
مراجع
عدل- ^ ا ب Vaswani، Ashish؛ Shazeer، Noam؛ Parmar، Niki؛ Uszkoreit، Jakob؛ Jones، Llion؛ Gomez، Aidan N؛ Kaiser، Łukasz؛ Polosukhin، Illia (2017). "Attention is All you Need". Advances in Neural Information Processing Systems. Curran Associates, Inc. ج. 30. arXiv:1706.03762.
- ^ Love، Julia (10 يوليو 2023). "AI Researcher Who Helped Write Landmark Paper Is Leaving Google". بلومبيرغ نيوز. اطلع عليه بتاريخ 2024-04-01.
- ^ Goldman، Sharon (20 مارس 2024). "'Attention is All You Need' creators look beyond Transformers for AI at Nvidia GTC: 'The world needs something better'". فنشر بيت. اطلع عليه بتاريخ 2024-04-01.
- ^ Bahdanau، Dzmitry؛ Cho، Kyunghyun؛ Bengio، Yoshua (19 مايو 2016). "Neural Machine Translation by Jointly Learning to Align and Translate". arXiv:1409.0473 [cs.CL].
- ^ Shinde، Gitanjali؛ Wasatkar، Namrata؛ Mahalle، Parikshit (6 يونيو 2024). Data-Centric Artificial Intelligence for Multidisciplinary Applications. سي آر سي بريس. ص. 75. ISBN:9781040031131. مؤرشف من الأصل في 2024-08-19.