هوش مصنوعی از زمان پیدایش تاکنون انقلاب بزرگی در همه عرصهها ایجاد کرده است. حال ژاپن قصد دارد تا هوش مصنوعی را بیشتر گسترش دهد. در ادامه اقدامات این کشور در این مورد را مشاهده میکنید.
ژاپن در حال توسعه نسخه خود از ChatGPT است. این ربات هوش مصنوعی که توسط شرکت آمریکایی OpenAI ساخته شده است، پس از معرفی کمتر از یک سال پیش توجه جهانیان را به خود جلب کرد.
دولت ژاپن و شرکتهای بزرگ فناوری مانند NEC، فوجیتسو و سافتبانک صدها میلیون دلار برای توسعه سیستمهای هوش مصنوعی هزینه میکنند که بر روی همان فناوری زیربنایی معروف به مدلهای زبان بزرگ کار میکنند، اما به جای ترجمه نسخه انگلیسی از ژاپنی استفاده میکنند.
کیسوکه ساکاگوچی، محقق دانشگاه توهوکو در ژاپن که در پردازش زبان طبیعی و سایر عوامل تخصصی متخصص است، میگوید: مدلهای زبان عمومی در مقیاس بزرگ کنونی مانند GPT در انگلیسی برتری دارند، اما اغلب به دلیل تفاوت در سیستم الفبا، دادههای محدودی در زبان ژاپنی دارند. گم شده اند.
تعصب زبان انگلیسی
مدلهای زبانی بزرگ معمولاً از مقادیر زیادی دادهها و منابع در دسترس عموم برای یادگیری زبان طبیعی و الگوهای نثر استفاده میکنند. آنها برای پیش بینی کلمه بعدی بر اساس کلمات قبلی در یک متن آموزش می بینند. اکثر متن مورد استفاده برای آموزش مدل قبلی چت GPT GPT-3 به زبان انگلیسی بود.
توانایی قابل توجه چت جیپیتی در برقراری مکالمات شبیه انسان، محققان را هیجان زده و نگران کرده است. برخی آن را به عنوان یک ابزار بالقوه صرفه جویی در کار می دانند، در حالی که برخی دیگر نگران هستند که از آن برای تولید مقالات یا داده های علمی استفاده شود.
در ژاپن این نگرانی وجود دارد که سیستمهای هوش مصنوعی آموزشدیده بر روی مجموعه دادههای زبانهای دیگر قادر به درک پیچیدگیهای زبان و فرهنگ ژاپنی نباشند. ساختار جمله در ژاپنی کاملاً متفاوت از زبان انگلیسی است. بنابراین چت GPT باید یک درخواست ژاپنی را به انگلیسی ترجمه کند، پاسخ را پیدا کند و سپس آن را به ژاپنی ترجمه کند.
در حالی که انگلیسی فقط 26 حرف دارد، زبان نوشتاری ژاپنی شامل دو مجموعه از 48 کاراکتر اصلی و همچنین 2136 کاراکتر چینی یا کانجی است که به طور منظم استفاده می شود. اکثر کانجی ها دو یا چند تلفظ دارند و 50000 کانجی دیگر وجود دارد که به ندرت استفاده می شوند. با توجه به این پیچیدگی، جای تعجب نیست که چت جیپیتی نتواند این زبان را مدیریت کند.
ساکاگوچی میگوید: در ژاپنی، چت جیپیتی گاهی اوقات شخصیتهای بسیار کمیابی را تولید میکند که اکثر مردم قبلاً هرگز آنها را ندیدهاند و در نتیجه کلمات عجیب غریبی بهوجود میآید.
هنجارهای فرهنگی
برای اینکه یک مدل زبان بزرگ مفید و حتی از نظر تجاری قابل دوام باشد، باید فرهنگ و زبان را به طور دقیق منعکس کند. به عنوان مثال، اگر از چت جیپیتی خواسته شود که یک ایمیل برنامه را به زبان ژاپنی بنویسد، عبارات ادبی استاندارد ممکن است حذف شوند و نتیجه مانند ترجمه واضح از انگلیسی به نظر برسد.
برای اندازه گیری حساسیت مدل های زبانی بزرگ به فرهنگ ژاپنی، گروهی از محققان راکودا را راه اندازی کردند. Rakoda رتبهبندی است که نشان میدهد مدلهای زبان بزرگ چقدر میتوانند به سؤالات باز درباره موضوعات ژاپنی پاسخ دهند.
بنیانگذار Rakuda، Sam Passaglia و همکارانش از چت جیپیتی خواستند تا مهارت زبانی و تناسب فرهنگی پاسخها به پرسشهای استاندارد را مقایسه کند.
پاساگلیا، فیزیکدان دانشگاه توکیو که مدلهای زبان ژاپنی را مطالعه میکند، میگوید: «البته، مدلهای بزرگ زبان ژاپنی تا حد زیادی بهبود خواهند یافت، اما در حال حاضر آنها بسیار عقبتر از JPT-4 هستند.» او میگوید در اصل، دلیلی وجود ندارد. چرا یک مدل بزرگ ژاپنی زبان نمی تواند در آینده به GPT-4 برسد یا از آن فراتر رود. این از نظر فنی قابل حل است، اما یک مشکل منابع وجود دارد.
یکی از تلاشها برای ایجاد یک مدل بزرگ ژاپنی، استفاده از ابررایانه ژاپنی Fugaku است. فوگاکو، یکی از سریع ترین ها در جهان، در درجه اول یک مدل زبان را بر اساس ورودی ژاپنی آموزش می دهد.
با حمایت موسسه فناوری توکیو، دانشگاه توهوکو، فوجیتسو و گروه مراکز تحقیقاتی RIKEN با بودجه دولتی، انتظار میرود مدل زبانی حاصل در سال آینده منتشر شود.
برخلاف GPT-4 و سایر مدلهای اختصاصی، این مدل زبان بزرگ، سایر مدلهای زبان منبع باز را به هم متصل میکند تا کد آنها را در دسترس همه کاربران قرار دهد. به گفته ساکاگوچی، که در این پروژه مشارکت دارد، محققان امیدوارند حداقل 30 میلیارد پارامتر به آن بدهند که بتواند بر عملکرد آن تأثیر بگذارد و به عنوان معیار اندازه آن عمل کند.
با این حال، مدل زبان فوگاکو می تواند با یک مدل حتی بزرگتر جایگزین شود.
وزارت آموزش، فرهنگ، ورزش، علم و فناوری ژاپن بودجه ایجاد یک برنامه هوش مصنوعی ژاپنی متناسب با نیازهای علمی را با هدف یادگیری از تحقیقات منتشر شده، ایجاد فرضیه های علمی و تسریع در شناسایی اهداف تحقیقاتی تامین می کند. این مدل می تواند با 100 میلیارد پارامتر شروع شود که کمی بیش از نیمی از اندازه GPT-3 است و در طول زمان گسترش یابد.
ماکوتو تایجی، معاون مرکز تحقیقات دینامیک بیوسیستم RIKEN، در مورد این پروژه می گوید: امیدواریم چرخه تحقیقات علمی را به طور چشمگیری تسریع کنیم و فضای جستجو را گسترش دهیم. توسعه مدل زبان بزرگ حداقل 30 میلیارد ین (204 میلیون دلار) هزینه خواهد داشت و انتظار می رود در سال 2031 به صورت عمومی منتشر شود.
گسترش قابلیتها
سایر شرکت های ژاپنی در حال تجاری سازی یا برنامه ریزی برای تجاری سازی فناوری های اصلی مدل سازی زبان خود هستند.
سازنده ابر رایانه NEC در ماه مه استفاده از هوش مصنوعی مولد خود را در ژاپنی آغاز کرد و ادعا کرد که این مدل زبان زمان مورد نیاز برای تولید گزارش های داخلی را تا 50 درصد و کد منبع نرم افزار داخلی را تا 80 درصد کاهش می دهد. در ماه جولای، این شرکت شروع به ارائه خدمات هوش مصنوعی شخصی به مشتریان خود کرد.
Masafumi Oyamada، محقق ارشد در آزمایشگاههای علوم داده NEC، میگوید که میتوان از آن در صنایع مختلفی مانند مالی، حملونقل و لجستیک، توزیع و تولید استفاده کرد. او اضافه می کند که محققان می توانند از آن برای نوشتن کد، کمک به نوشتن و ویرایش مقالات و بررسی مقالات منتشر شده موجود استفاده کنند.
در همین حال، شرکت مخابراتی ژاپنی SoftBank حدود 20 میلیارد ین در هوش مصنوعی مولد آموزش داده شده بر روی متون ژاپنی سرمایه گذاری کرده است و قصد دارد مدل زبان بزرگ خود را در سال آینده راه اندازی کند. SoftBank که 40 میلیون مشتری دارد و همچنین با OpenAI سرمایه گذار مایکروسافت همکاری می کند، می خواهد به شرکت ها کمک کند تا کسب و کار خود را دیجیتالی کنند و بهره وری را افزایش دهند. سافت بانک انتظار دارد که مدل زبان بزرگ خود توسط دانشگاه ها، موسسات تحقیقاتی و سایر سازمان ها استفاده شود.
در همین حال، محققان ژاپنی امیدوارند که یک چت ربات دقیق و موثر هوش مصنوعی ساخت ژاپن بتواند به سرعت بخشیدن به علم و پر کردن شکاف بین ژاپن و سایر نقاط جهان کمک کند.