هوش مصنوعی در خدمت زبان فارسی؛ تحلیلی بر آینده مدلهای زبانی ایرانی
به گزارش روابط عمومی مرکز مطالعات راهبردی ژرفا، در رویداد «هوش مصنوعی و قند پارسی» که با حضور متخصصان، پژوهشگران و فعالان هوش مصنوعی برگزار شد، مسیر توسعه مدلهای زبانی فارسی بررسی شد. این نشست به همت مرکز تحقیقات هوش مصنوعی پارت در سالن همایشهای کتابخانه ملی برگزار شد و توجه کارشناسان را به یکی از بنیادیترین مسائل هوش مصنوعی در کشور جلب کرد: آینده مدلهای زبانی فارسی. در ادامه، مشروح تحلیل علی کریمی، کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا را در خصوص این رویداد میخوانید.

علی کریمی با اشاره به اهمیت برگزاری رویدادهایی از جنس «قند پارسی» اظهار داشت: «یکی از مهمترین گلوگاههای توسعه هوش مصنوعی در ایران، کمبودن گردهماییهایی است که در آن شرکتها، محققان و صاحبان فناوری، تجارب واقعی خود در زمینه مدلسازی زبان فارسی را به اشتراک بگذارند. این رویداد، فرصت کمنظیری بود تا دستاوردهای واقعی در حوزه پردازش زبان طبیعی فارسی، بدون واسطه و تبلیغات اغراقآمیز، در برابر جامعه علمی کشور قرار گیرد. چنین رویدادهایی باید به جریان پایدار تبادل تجربه و تحلیل در اکوسیستم فناوری ایران تبدیل شود.»
وی در ادامه با انتقادی سازنده افزود: «اگرچه این رویداد گامی مهم در افزایش آگاهی عمومی از فعالیتهای پژوهشی شرکت پارت بود، اما عنوان قند پارسی، انتظار تمرکز بیشتر و تخصصیتری بر روی زبان فارسی ایجاد میکرد. بررسی عملکرد مدلها در وظایف زبانی فارسی باید فراتر از چند مثال ساده باشد. باید نشان داده میشد که این مدلها دقیقاً چه برتریهایی در تحلیل معنایی، درک متون فارسی یا پاسخگویی به پرسشهای پیچیده دارند و این مزیتها چگونه در قیاس با نمونههای خارجی اثباتپذیرند.»
کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا درباره ویژگی خاص مرکز پارت گفت: «یکی از جنبههای مهم فعالیت شرکت پارت، نگاه پژوهشمحور و غیرتجاری آن است که برخلاف روند بستهسازی رایج در بازارهای هوش مصنوعی، ترجیح داده است بسیاری از دستاوردهای خود از جمله مدلهای زبانی و بنچمارکهای ارزیابی را بهصورت عمومی منتشر کند. همانگونه که آقای صالحاُف هم تأکید کرد، بخش زیادی از فعالیتها در این مرکز در قالب آزمون و خطا و برای کسب تجربه صورت گرفته و همین رویکرد پژوهشی میتواند اعتماد به بدنه علمی این مجموعه را افزایش دهد.»
علی کریمی با اشاره به بنچمارکهای ارائهشده از سوی پارت افزود: «ارائه بنچمارک ارزیابی مدلهای زبانی فارسی با همکاری دانشگاه صنعتی امیرکبیر از دستاوردهای کمنظیر این مجموعه است. برای اولین بار در ایران، ارزیابی مدلهای زبانی بهصورت شفاف و سیستماتیک منتشر شد و معیارهای بومی برای ارزیابی مدلهای فارسی معرفی شدند. این اقدام به توسعه استانداردهای علمی در این حوزه کمک میکند و میتواند مرجع تصمیمگیری سایر شرکتها و پژوهشگران باشد. چنین اقدامات علمی، پایههای زیستبوم پردازش زبان فارسی را شکل میدهد.»
وی در ادامه گفت: «دستاوردهایی مانند Tooka-SBERT-V2 که توانسته است در برخی معیارهای ارزیابی از مدلهای معروف مایکروسافت عملکرد بهتری در زبان فارسی داشته باشد، نشان از رشد واقعی در حوزه مدلهای زبانی بومی دارد. این موفقیت در شرایطی حاصل شده که دادههای آموزشی در زبان فارسی به مراتب کمتر و پراکندهتر از زبانهای بینالمللی است. این نشان میدهد که با طراحی دقیق و استفاده هدفمند از منابع، حتی در شرایط محدود نیز میتوان به رقابت جهانی وارد شد.»
از شاهین تا درنا؛ مسیر بومیسازی مدلها
این کارشناس هوش مصنوعی افزود: «شرکت پارت توانسته مدلهای رمزگذار و رمزگشا مانند توکا و درنا را معرفی کند که نشاندهنده بلوغ فنی این مجموعه در طراحی معماریهای پیچیده زبانی است. همچنین برنامهریزی برای توسعه مدل شاهین با معماری اختصاصی، گام مهمی در راه استقلال فناوری و کاهش وابستگی به مدلهای خارجی است. چنین حرکتهایی زمانی معنا پیدا میکنند که بتوانند نهتنها قدرت پردازشی بلکه نیازهای فرهنگی و زبانی جامعه ایرانی را نیز پاسخ دهند.»
علی کریمی با تحلیل انتقادی ادامه داد: «با همه این دستاوردها، باید پذیرفت که هنوز کاربرد مدلهای زبانی فارسی در صنایع و حوزههای عملیاتی کشور بسیار محدود است. نیاز است مدلهایی که توسعه مییابند، با دادههای واقعی از حوزههایی چون حقوق، آموزش، سلامت و خدمات عمومی آزمایش شوند. اگر مدل زبانی فارسی صرفاً در فضای پژوهش باقی بماند، نمیتوان انتظار داشت که در زندگی روزمره ایرانیان نقشی ایفا کند. پایداری این پروژهها در گرو پیوند نزدیک با کاربردهای واقعی است.»
وی گفت: «از منظر حاکمیتی نیز توسعه این مدلها اهمیت استراتژیک دارد. بسیاری از مدلهای خارجی پردازش زبان، دارای نگرشهای فرهنگی، سیاسی و ارزشی خاصی هستند. استفاده گسترده از آنها ممکن است منجر به تضعیف ارزشهای بومی و القای تعصبات ناآشکار شود. بنابراین، توسعه مدلهای بومی همچون Tooka-SBERT و شاهین، نهتنها ضرورت فنی بلکه ضرورتی فرهنگی و امنیتی نیز تلقی میشود. این مسئله باید در دستورکار جدی نهادهای بالادستی قرار گیرد.»
کارشناس اندیشکده علوم داده ژرفا تأکید کرد: «یکی از امتیازهای مهم شرکت پارت، حرکت به سمت متنبازسازی بخشی از پروژههاست. انتشار عمومی مدلها باعث رشد دانش بومی میشود. در بسیاری از کشورها از جمله آلمان و هند، روند توسعه مدلهای زبانی ملی با مشارکت جامعه متنباز شکل گرفته است. مشارکت دانشگاهیان، استارتاپها و فعالان مستقل در آزمون و ارزیابی مدلها میتواند دقت و تنوع عملکرد را بالا برده و از خطاهای ناخواسته یا سوگیریهای پنهان جلوگیری کند.»
علی کریمی خاطرنشان کرد: «اگر بتوانیم در مسیر توسعه مدلهای زبانی، همزمان چند اصل را رعایت کنیم—یعنی دقت فنی، تنوع داده، شفافیت اخلاقی و پیوند کاربردی—آنگاه میتوان امیدوار بود زبان فارسی جایگاه واقعی خود را در جهان دیجیتال آینده بیابد. مدل زبانی، صرفاً یک ابزار پردازشی نیست، بلکه حامل فرهنگ، روایت، نگرش و هویت است.»
مسیر آیندهپژوهی در مدلهای فارسی
وی به موضوع آیندهپژوهی مدلهای زبانی پرداخت و گفت: «در شماره سوم ویژهنامه دیدبان هوش مصنوعی با عنوان نوآوری بیپایان، بحث آیندهنگری درباره مدلهای مولد بهخوبی مطرح شد. اما لازم است فراتر از آیندهنگری تئوریک، نقشه راه عملیاتی برای توسعه مدلهای زبانی ترسیم شود. اگر قرار باشد ایران سهمی از بازار جهانی هوش مصنوعی داشته باشد، باید زبان فارسی را به نقطهای برسانیم که در کارکردهای صنعتی، آموزشی، فرهنگی و حتی نظامی نیز توان رقابت داشته باشد.»
کارشناس هوش مصنوعی مرکز مطالعات راهبردی ژرفا با اشاره به روند جهانی توسعه LLMها (مدلهای زبانی بزرگ) بیان کرد: «در حال حاضر، شرکتهایی چون OpenAI، Google و Meta مدلهایی توسعه دادهاند که میلیاردها پارامتر را در خود جای دادهاند. اما در ایران، هنوز زیرساخت محاسباتی کافی برای آموزش مدلهای در مقیاس LLaMA، GPT یا Gemini وجود ندارد. بنابراین، ما باید راهبرد خود را روی معماریهای سبکتر، مدلسازی با دادههای بهینه و طراحی مدلهای حوزهمحور متمرکز کنیم. شرکت پارت نیز در همین مسیر گام برداشته است.»
علی کریمی با تأکید بر اهمیت نقش دانشگاهها گفت: «مدلسازی زبانی بدون حمایت علمی دانشگاهی پایدار نخواهد ماند. تعامل مؤثر پارت با دانشگاه امیرکبیر در توسعه بنچمارک دوم نمونهای موفق از این همکاریهاست. اما باید این روند تعمیم یابد؛ بهویژه در حوزههای علوم انسانی، زبانشناسی رایانشی و اخلاق فناوری. بسیاری از مدلهای زبانی موفق جهان، حاصل همکاری مستمر میان بخش خصوصی، مراکز تحقیقاتی و دولتها هستند و ایران نیز باید به این الگو توجه کند.»
وی با تحلیل بخش نشست تخصصی پایانی رویداد گفت: «حضور چهرههایی مانند دکتر محمدی از دانشگاه علم و صنعت، دکتر فراهانی و دکتر ممتازی از دانشگاههای معتبر ایران در این پنل، نشاندهنده توجه فزاینده دانشگاهیان به مقوله مدلهای زبانی فارسی است. اما پرسشی که باید از خود بپرسیم این است که آیا خروجی این پنلها به سیاستگذاری اجرایی نیز منجر میشود؟ ما نیازمند تدوین بستههای حمایتی، تسهیل تخصیص GPU و حمایت از استارتاپهای حوزه NLP هستیم.»
کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا درباره معماری Tooka-SBERT-V2 توضیح داد: «طبق توضیحات ارائهشده در رویداد، این مدل در حالی توانسته از SBERT مایکروسافت در زبان فارسی پیشی بگیرد که اندازه و پارامترهای کمتری دارد. این دستاورد فنی در حوزه embedding نشان میدهد که تمرکز بر زبان خاص و بهرهگیری از دادههای بومی، میتواند به نتایجی حتی بهتر از غولهای فناوری منجر شود. این مدل نهتنها کوچکتر و سریعتر است، بلکه برای کاربردهای عملی در اپلیکیشنهای بومی نیز مناسبتر است.»
چالش تعصب، کاربرد اقتصادی و مسئولیت اخلاقی
علی کریمی در بررسی عملکرد مدلهای درنا ۱ و ۲ افزود: «این مدلهای دیکودرمحور، قابلیت تولید متن و انجام وظایف پیچیدهتر را دارند. اگرچه جزئیات فنی آنها کمتر ارائه شد، اما روند توسعه و معرفی تدریجی آنها نشان میدهد که پارت در مسیر ارتقاء تدریجی و تست واقعی گام برمیدارد. شفافسازی در مورد نحوه آموزش، دادههای ورودی، معیارهای اخلاقی و تعصبزدایی از مدلها در آینده میتواند اعتماد بیشتری برای استفاده گسترده از آنها فراهم کند.»
وی بر اهمیت “مدیریت تعصب مدل” تأکید کرد و گفت: «در نسخه دوم بنچمارک پارت، برای نخستینبار در ایران به مسائلی همچون توهم مدل، سوگیری زبانی، و تعصب فرهنگی پرداخته شده است. این یک نقطه عطف مهم در توسعه مسئولانه هوش مصنوعی است. ما باید به کاربران مدل زبانی این اطمینان را بدهیم که خروجیهای تولیدشده نه تنها دقیق، بلکه از نظر ارزشهای انسانی، بیطرف و سالماند. این موضوع بهویژه در حوزه آموزش، رسانه و امنیت ملی حیاتی است.»
این کارشناس در بخش دیگر گفت: «فرصتهای جدیدی که مدلهای زبانی برای اقتصاد دیجیتال فراهم میکنند، نباید نادیده گرفته شوند. از تولید محتوا در رسانهها، طراحی سیستمهای پاسخگو برای دولت الکترونیک، ساخت ابزارهای آموزش هوشمند تا ساختاردهی به پایگاههای داده تاریخی و زبانشناختی، مدلهای زبانی فارسی میتوانند به صرفهجویی در هزینهها و افزایش بهرهوری منجر شوند. البته تنها در صورتی که این فناوریها به مرحله محصولسازی برسند و صرفاً در سطح تحقیق باقی نمانند.»
علی کریمی به مسئولیتپذیری در توسعه فناوری اشاره کرد و افزود: «فناوری هوش مصنوعی بهویژه در حوزه زبانی، با اخلاق و سیاست در هم تنیده است. نمیتوان صرفاً با نگاه مهندسی به آن نگاه کرد. به همین دلیل، حضور نهادهایی مانند اندیشکدههای علوم داده، مراکز مطالعات اجتماعی و شورای عالی فضای مجازی در تدوین خطوط قرمز و سیاستگذاری بلندمدت، الزامی است. امروز اگر نتوانیم مدلهای زبان فارسی را توسعه دهیم، فردا خروجیهای فرهنگی کشورمان در پلتفرمها، توسط مدلهای غیر بومی تولید خواهد شد.»
وی در پایان این گفتوگوی تحلیلی خاطرنشان کرد: «رویداد قند پارسی اگرچه آغاز است، اما باید تداوم یابد. باید شاهد تولد رویدادهایی مشابه در دانشگاهها، شتابدهندهها و اندیشکدهها باشیم. زبان فارسی ظرفیت بینظیری برای درخشش در هوش مصنوعی دارد؛ اما این اتفاق، بدون تلاقی علم، صنعت، فرهنگ و سیاست ممکن نیست. ژرفا نیز در تلاش است با تولید تحلیلهای راهبردی، پیشنهادهای اجرایی و گفتمانسازی تخصصی، سهمی در این مسیر تمدنساز ایفا کند.»