یک شبکه عصبی که یاد گرفت اشیاء را با استفاده از فیلم های ضبط شده از دید نوزاد تشخیص دهد، می تواند بینش جدیدی در مورد نحوه یادگیری افراد ارائه دهد.

به گزارش ایسنا، یک مدل هوش مصنوعی (AI) با بررسی تصاویر و فیلم‌هایی که از بخش کوچکی از زندگی نوزاد و از قسمتی که روی سر نوزاد قرار داده شده بود و دوربین ضبط کرده بود، کلماتی مانند «تخت» و «توپ» را یاد گرفت.

به گزارش طبیعت، وای کین ونگ (وای کین ونگ)، یکی یکی از نویسندگان این مطالعه و محقق هوش مصنوعی در دانشگاه نیویورک می گوید: نتایج نشان می دهد که هوش مصنوعی می تواند به ما در درک نحوه یادگیری افراد کمک کند.

وانگ می‌گوید این قبلاً نامشخص بود، زیرا سایر مدل‌های یادگیری زبان مانند ChatGPT بر روی میلیاردها نقطه داده آموزش دیده‌اند که نمی‌توانند با تجربیات یک نوزاد در دنیای واقعی مقایسه شوند. وقتی به دنیا می آییم به ما اینترنت نمی دهند.

نویسندگان امیدوارند این تحقیق که در 1 فوریه در مجله Science گزارش شده است، به بحث طولانی مدت در مورد چگونگی یادگیری زبان کودکان بیفزاید. هوش مصنوعی زبان را به سادگی با ایجاد ارتباط بین تصاویر و کلماتی که با هم می دید، یاد گرفت.

این هوش مصنوعی بدون هیچ دانش زبان قبلی برنامه ریزی شده است. وونگ می‌گوید این موضوع برخی از نظریه‌های علوم شناختی را به چالش می‌کشد که نوزادان به دانش ذاتی در مورد نحوه عملکرد زبان برای معنا بخشیدن به کلمات نیاز دارند.

هدر بورتفلد، دانشمند شناختی در دانشگاه کالیفرنیا، برکلی، می‌گوید این مطالعه «رویکردی جذاب» برای درک یادگیری اولیه زبان در کودکان است.

دیدگاه کودک

وونگ و همکارانش از 61 ساعت فیلم از دوربینی که روی کلاه ایمنی پسر بچه ای به نام سام نصب شده بود استفاده کردند تا تجربیاتی را از دید کودک جمع آوری کنند. سام که در نزدیکی آدلاید استرالیا زندگی می کند، از شش ماهگی تا حدود دو سالگی به مدت یک ساعت، تقریباً یک درصد از زمان بیداری خود، هفته ای دو بار دوربین را می پوشید.

محققان شبکه عصبی خود را که یک هوش مصنوعی الهام گرفته از ساختار مغز است، با استفاده از تصاویر ویدئویی و کلماتی که سام بیان می‌کرد، آموزش دادند. این مدل در معرض 250000 کلمه و تصاویر مربوطه در حین فعالیت هایی مانند بازی، خواندن و خوردن قرار گرفت. این مدل از روشی به نام یادگیری متخاصم استفاده کرد تا بفهمد کدام تصاویر و متن با هم مطابقت دارند و کدام یک مطابقت ندارند.

برای آزمایش این هوش مصنوعی، محققان از مدل خواستند کلمه ای به آن بگوید یکی چهار تصویر انتخاب شده را مطابقت دهید. از این آزمون برای سنجش مهارت های زبانی کودکان نیز استفاده می شود.

هوش مصنوعی در 62 درصد مواقع اشیاء را با موفقیت طبقه بندی کرد، عملکردی بسیار بهتر از 25 درصدی که به طور تصادفی انتظار می رفت و قابل مقایسه با یک مدل هوش مصنوعی مشابه که روی 400 میلیون تصویر و متن در کل مجموعه اجرا می شد. داده ها آموزش داده شده است.

برای برخی از کلمات، مانند “سیب” و “سگ”، این مدل توانست نمونه هایی را که قبلا دیده نشده بود به درستی شناسایی کند. این معمولا برای مردم نسبتا آسان است.

به طور متوسط، هوش مصنوعی در 35٪ مواقع این کار را انجام داد. وونگ می گوید که مدل زبان حتی در شناسایی اشیایی که از نظر ظاهری تفاوت چندانی با هم ندارند، بسیار خوب عمل کرده است. او برای یادگیری کلماتی که می‌توانستند به چیزهای مختلفی اشاره کنند، مانند «اسباب‌بازی‌ها» مشکل‌تر بود.

درس هایی در مورد یادگیری

بورتفلد می‌گوید اتکای این مطالعه به داده‌های یک کودک مجرد ممکن است سؤالاتی را درباره تعمیم‌پذیری نتایج به موارد دیگر ایجاد کند، زیرا تجربیات و محیط‌های کودکان بسیار متفاوت است.

او می افزاید، اما این تمرین نشان داد که می توان در روزهای اولیه زندگی نوزاد با ایجاد ارتباط بین منابع حسی مختلف، چیزهای زیادی آموخت.

یادگیری زبان در دنیای واقعی بسیار غنی تر و متنوع تر از هوش مصنوعی است. محققان می گویند هوش مصنوعی نمی تواند تعاملات ذاتی در زندگی یک نوزاد واقعی را تجربه کند، زیرا به آموزش با تصاویر ثابت و متن نوشته شده محدود می شود.

به عنوان مثال، وونگ گفت که هوش مصنوعی در یادگیری کلمه «دست» که معمولاً در اوایل زندگی کودک یاد می‌شود، مشکل داشت. بچه ها دست خود را دارند، تجربه زیادی با آنها دارند. این قطعاً جزء گمشده مدل ما است.

اخبار مرتبط

ارسال به دیگران :

آخرین اخبار

همکاران ما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *