هوش مصنوعی در خدمت زبان فارسی

هوش مصنوعی در خدمت زبان فارسی؛ تحلیلی بر آینده مدل‌های زبانی ایرانی

به گزارش روابط عمومی مرکز مطالعات راهبردی ژرفا، در رویداد «هوش مصنوعی و قند پارسی» که با حضور متخصصان، پژوهشگران و فعالان هوش مصنوعی برگزار شد، مسیر توسعه مدل‌های زبانی فارسی بررسی شد. این نشست به همت مرکز تحقیقات هوش مصنوعی پارت در سالن همایش‌های کتابخانه ملی برگزار شد و توجه کارشناسان را به یکی از بنیادی‌ترین مسائل هوش مصنوعی در کشور جلب کرد: آینده مدل‌های زبانی فارسی. در ادامه، مشروح تحلیل علی کریمی، کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا را در خصوص این رویداد می‌خوانید.

رویداد قند پارسی

علی کریمی با اشاره به اهمیت برگزاری رویدادهایی از جنس «قند پارسی» اظهار داشت: «یکی از مهم‌ترین گلوگاه‌های توسعه هوش مصنوعی در ایران، کم‌بودن گردهمایی‌هایی است که در آن شرکت‌ها، محققان و صاحبان فناوری، تجارب واقعی خود در زمینه مدل‌سازی زبان فارسی را به اشتراک بگذارند. این رویداد، فرصت کم‌نظیری بود تا دستاوردهای واقعی در حوزه پردازش زبان طبیعی فارسی، بدون واسطه و تبلیغات اغراق‌آمیز، در برابر جامعه علمی کشور قرار گیرد. چنین رویدادهایی باید به جریان پایدار تبادل تجربه و تحلیل در اکوسیستم فناوری ایران تبدیل شود.»

وی در ادامه با انتقادی سازنده افزود: «اگرچه این رویداد گامی مهم در افزایش آگاهی عمومی از فعالیت‌های پژوهشی شرکت پارت بود، اما عنوان قند پارسی، انتظار تمرکز بیشتر و تخصصی‌تری بر روی زبان فارسی ایجاد می‌کرد. بررسی عملکرد مدل‌ها در وظایف زبانی فارسی باید فراتر از چند مثال ساده باشد. باید نشان داده می‌شد که این مدل‌ها دقیقاً چه برتری‌هایی در تحلیل معنایی، درک متون فارسی یا پاسخ‌گویی به پرسش‌های پیچیده دارند و این مزیت‌ها چگونه در قیاس با نمونه‌های خارجی اثبات‌پذیرند.»

کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا درباره ویژگی خاص مرکز پارت گفت: «یکی از جنبه‌های مهم فعالیت شرکت پارت، نگاه پژوهش‌محور و غیرتجاری آن است که برخلاف روند بسته‌سازی رایج در بازارهای هوش مصنوعی، ترجیح داده است بسیاری از دستاوردهای خود از جمله مدل‌های زبانی و بنچمارک‌های ارزیابی را به‌صورت عمومی منتشر کند. همان‌گونه که آقای صالح‌اُف هم تأکید کرد، بخش زیادی از فعالیت‌ها در این مرکز در قالب آزمون و خطا و برای کسب تجربه صورت گرفته و همین رویکرد پژوهشی می‌تواند اعتماد به بدنه علمی این مجموعه را افزایش دهد.»

علی کریمی با اشاره به بنچمارک‌های ارائه‌شده از سوی پارت افزود: «ارائه بنچمارک ارزیابی مدل‌های زبانی فارسی با همکاری دانشگاه صنعتی امیرکبیر از دستاوردهای کم‌نظیر این مجموعه است. برای اولین بار در ایران، ارزیابی مدل‌های زبانی به‌صورت شفاف و سیستماتیک منتشر شد و معیارهای بومی برای ارزیابی مدل‌های فارسی معرفی شدند. این اقدام به توسعه استانداردهای علمی در این حوزه کمک می‌کند و می‌تواند مرجع تصمیم‌گیری سایر شرکت‌ها و پژوهشگران باشد. چنین اقدامات علمی، پایه‌های زیست‌بوم پردازش زبان فارسی را شکل می‌دهد.»

وی در ادامه گفت: «دستاوردهایی مانند Tooka-SBERT-V2 که توانسته است در برخی معیارهای ارزیابی از مدل‌های معروف مایکروسافت عملکرد بهتری در زبان فارسی داشته باشد، نشان از رشد واقعی در حوزه مدل‌های زبانی بومی دارد. این موفقیت در شرایطی حاصل شده که داده‌های آموزشی در زبان فارسی به مراتب کمتر و پراکنده‌تر از زبان‌های بین‌المللی است. این نشان می‌دهد که با طراحی دقیق و استفاده هدفمند از منابع، حتی در شرایط محدود نیز می‌توان به رقابت جهانی وارد شد.»

از شاهین تا درنا؛ مسیر بومی‌سازی مدل‌ها

این کارشناس هوش مصنوعی افزود: «شرکت پارت توانسته مدل‌های رمزگذار و رمزگشا مانند توکا و درنا را معرفی کند که نشان‌دهنده بلوغ فنی این مجموعه در طراحی معماری‌های پیچیده زبانی است. همچنین برنامه‌ریزی برای توسعه مدل شاهین با معماری اختصاصی، گام مهمی در راه استقلال فناوری و کاهش وابستگی به مدل‌های خارجی است. چنین حرکت‌هایی زمانی معنا پیدا می‌کنند که بتوانند نه‌تنها قدرت پردازشی بلکه نیازهای فرهنگی و زبانی جامعه ایرانی را نیز پاسخ دهند.»

علی کریمی با تحلیل انتقادی ادامه داد: «با همه این دستاوردها، باید پذیرفت که هنوز کاربرد مدل‌های زبانی فارسی در صنایع و حوزه‌های عملیاتی کشور بسیار محدود است. نیاز است مدل‌هایی که توسعه می‌یابند، با داده‌های واقعی از حوزه‌هایی چون حقوق، آموزش، سلامت و خدمات عمومی آزمایش شوند. اگر مدل زبانی فارسی صرفاً در فضای پژوهش باقی بماند، نمی‌توان انتظار داشت که در زندگی روزمره ایرانیان نقشی ایفا کند. پایداری این پروژه‌ها در گرو پیوند نزدیک با کاربردهای واقعی است.»

وی گفت: «از منظر حاکمیتی نیز توسعه این مدل‌ها اهمیت استراتژیک دارد. بسیاری از مدل‌های خارجی پردازش زبان، دارای نگرش‌های فرهنگی، سیاسی و ارزشی خاصی هستند. استفاده گسترده از آن‌ها ممکن است منجر به تضعیف ارزش‌های بومی و القای تعصبات ناآشکار شود. بنابراین، توسعه مدل‌های بومی همچون Tooka-SBERT و شاهین، نه‌تنها ضرورت فنی بلکه ضرورتی فرهنگی و امنیتی نیز تلقی می‌شود. این مسئله باید در دستورکار جدی نهادهای بالادستی قرار گیرد.»

کارشناس اندیشکده علوم داده ژرفا تأکید کرد: «یکی از امتیازهای مهم شرکت پارت، حرکت به سمت متن‌بازسازی بخشی از پروژه‌هاست. انتشار عمومی مدل‌ها باعث رشد دانش بومی می‌شود. در بسیاری از کشورها از جمله آلمان و هند، روند توسعه مدل‌های زبانی ملی با مشارکت جامعه متن‌باز شکل گرفته است. مشارکت دانشگاهیان، استارتاپ‌ها و فعالان مستقل در آزمون و ارزیابی مدل‌ها می‌تواند دقت و تنوع عملکرد را بالا برده و از خطاهای ناخواسته یا سوگیری‌های پنهان جلوگیری کند.»

علی کریمی خاطرنشان کرد: «اگر بتوانیم در مسیر توسعه مدل‌های زبانی، هم‌زمان چند اصل را رعایت کنیم—یعنی دقت فنی، تنوع داده، شفافیت اخلاقی و پیوند کاربردی—آنگاه می‌توان امیدوار بود زبان فارسی جایگاه واقعی خود را در جهان دیجیتال آینده بیابد. مدل زبانی، صرفاً یک ابزار پردازشی نیست، بلکه حامل فرهنگ، روایت، نگرش و هویت است.»

مسیر آینده‌پژوهی در مدل‌های فارسی

وی به موضوع آینده‌پژوهی مدل‌های زبانی پرداخت و گفت: «در شماره سوم ویژه‌نامه دیدبان هوش مصنوعی با عنوان نوآوری بی‌پایان، بحث آینده‌نگری درباره مدل‌های مولد به‌خوبی مطرح شد. اما لازم است فراتر از آینده‌نگری تئوریک، نقشه راه عملیاتی برای توسعه مدل‌های زبانی ترسیم شود. اگر قرار باشد ایران سهمی از بازار جهانی هوش مصنوعی داشته باشد، باید زبان فارسی را به نقطه‌ای برسانیم که در کارکردهای صنعتی، آموزشی، فرهنگی و حتی نظامی نیز توان رقابت داشته باشد.»

کارشناس هوش مصنوعی مرکز مطالعات راهبردی ژرفا با اشاره به روند جهانی توسعه LLMها (مدل‌های زبانی بزرگ) بیان کرد: «در حال حاضر، شرکت‌هایی چون OpenAI، Google و Meta مدل‌هایی توسعه داده‌اند که میلیاردها پارامتر را در خود جای داده‌اند. اما در ایران، هنوز زیرساخت محاسباتی کافی برای آموزش مدل‌های در مقیاس LLaMA، GPT یا Gemini وجود ندارد. بنابراین، ما باید راهبرد خود را روی معماری‌های سبک‌تر، مدل‌سازی با داده‌های بهینه و طراحی مدل‌های حوزه‌محور متمرکز کنیم. شرکت پارت نیز در همین مسیر گام برداشته است.»

علی کریمی با تأکید بر اهمیت نقش دانشگاه‌ها گفت: «مدل‌سازی زبانی بدون حمایت علمی دانشگاهی پایدار نخواهد ماند. تعامل مؤثر پارت با دانشگاه امیرکبیر در توسعه بنچمارک دوم نمونه‌ای موفق از این همکاری‌هاست. اما باید این روند تعمیم یابد؛ به‌ویژه در حوزه‌های علوم انسانی، زبان‌شناسی رایانشی و اخلاق فناوری. بسیاری از مدل‌های زبانی موفق جهان، حاصل همکاری مستمر میان بخش خصوصی، مراکز تحقیقاتی و دولت‌ها هستند و ایران نیز باید به این الگو توجه کند.»

وی با تحلیل بخش نشست تخصصی پایانی رویداد گفت: «حضور چهره‌هایی مانند دکتر محمدی از دانشگاه علم و صنعت، دکتر فراهانی و دکتر ممتازی از دانشگاه‌های معتبر ایران در این پنل، نشان‌دهنده توجه فزاینده دانشگاهیان به مقوله مدل‌های زبانی فارسی است. اما پرسشی که باید از خود بپرسیم این است که آیا خروجی این پنل‌ها به سیاست‌گذاری اجرایی نیز منجر می‌شود؟ ما نیازمند تدوین بسته‌های حمایتی، تسهیل تخصیص GPU و حمایت از استارتاپ‌های حوزه NLP هستیم.»

کارشناس هوش مصنوعی اندیشکده علوم داده مرکز مطالعات راهبردی ژرفا درباره معماری Tooka-SBERT-V2 توضیح داد: «طبق توضیحات ارائه‌شده در رویداد، این مدل در حالی توانسته از SBERT مایکروسافت در زبان فارسی پیشی بگیرد که اندازه و پارامترهای کمتری دارد. این دستاورد فنی در حوزه embedding نشان می‌دهد که تمرکز بر زبان خاص و بهره‌گیری از داده‌های بومی، می‌تواند به نتایجی حتی بهتر از غول‌های فناوری منجر شود. این مدل نه‌تنها کوچک‌تر و سریع‌تر است، بلکه برای کاربردهای عملی در اپلیکیشن‌های بومی نیز مناسب‌تر است.»

چالش تعصب، کاربرد اقتصادی و مسئولیت اخلاقی

علی کریمی در بررسی عملکرد مدل‌های درنا ۱ و ۲ افزود: «این مدل‌های دیکودر‌محور، قابلیت تولید متن و انجام وظایف پیچیده‌تر را دارند. اگرچه جزئیات فنی آن‌ها کمتر ارائه شد، اما روند توسعه و معرفی تدریجی آن‌ها نشان می‌دهد که پارت در مسیر ارتقاء تدریجی و تست واقعی گام برمی‌دارد. شفاف‌سازی در مورد نحوه آموزش، داده‌های ورودی، معیارهای اخلاقی و تعصب‌زدایی از مدل‌ها در آینده می‌تواند اعتماد بیشتری برای استفاده گسترده از آن‌ها فراهم کند.»

وی بر اهمیت “مدیریت تعصب مدل” تأکید کرد و گفت: «در نسخه دوم بنچمارک پارت، برای نخستین‌بار در ایران به مسائلی همچون توهم مدل، سوگیری زبانی، و تعصب فرهنگی پرداخته شده است. این یک نقطه عطف مهم در توسعه مسئولانه هوش مصنوعی است. ما باید به کاربران مدل زبانی این اطمینان را بدهیم که خروجی‌های تولیدشده نه تنها دقیق، بلکه از نظر ارزش‌های انسانی، بی‌طرف و سالم‌اند. این موضوع به‌ویژه در حوزه آموزش، رسانه و امنیت ملی حیاتی است.»

این کارشناس در بخش دیگر گفت: «فرصت‌های جدیدی که مدل‌های زبانی برای اقتصاد دیجیتال فراهم می‌کنند، نباید نادیده گرفته شوند. از تولید محتوا در رسانه‌ها، طراحی سیستم‌های پاسخ‌گو برای دولت الکترونیک، ساخت ابزارهای آموزش هوشمند تا ساختاردهی به پایگاه‌های داده تاریخی و زبان‌شناختی، مدل‌های زبانی فارسی می‌توانند به صرفه‌جویی در هزینه‌ها و افزایش بهره‌وری منجر شوند. البته تنها در صورتی که این فناوری‌ها به مرحله محصول‌سازی برسند و صرفاً در سطح تحقیق باقی نمانند.»

علی کریمی به مسئولیت‌پذیری در توسعه فناوری اشاره کرد و افزود: «فناوری هوش مصنوعی به‌ویژه در حوزه زبانی، با اخلاق و سیاست در هم تنیده است. نمی‌توان صرفاً با نگاه مهندسی به آن نگاه کرد. به همین دلیل، حضور نهادهایی مانند اندیشکده‌های علوم داده، مراکز مطالعات اجتماعی و شورای عالی فضای مجازی در تدوین خطوط قرمز و سیاست‌گذاری بلندمدت، الزامی است. امروز اگر نتوانیم مدل‌های زبان فارسی را توسعه دهیم، فردا خروجی‌های فرهنگی کشورمان در پلتفرم‌ها، توسط مدل‌های غیر بومی تولید خواهد شد.»

وی در پایان این گفت‌وگوی تحلیلی خاطرنشان کرد: «رویداد قند پارسی اگرچه آغاز است، اما باید تداوم یابد. باید شاهد تولد رویدادهایی مشابه در دانشگاه‌ها، شتاب‌دهنده‌ها و اندیشکده‌ها باشیم. زبان فارسی ظرفیت بی‌نظیری برای درخشش در هوش مصنوعی دارد؛ اما این اتفاق، بدون تلاقی علم، صنعت، فرهنگ و سیاست ممکن نیست. ژرفا نیز در تلاش است با تولید تحلیل‌های راهبردی، پیشنهادهای اجرایی و گفتمان‌سازی تخصصی، سهمی در این مسیر تمدن‌ساز ایفا کند.»

آخرین اخبار
اخبار مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این فیلد را پر کنید
این فیلد را پر کنید
لطفاً یک نشانی ایمیل معتبر بنویسید.
شما برای ادامه باید با شرایط موافقت کنید

keyboard_arrow_up