یک شبکه عصبی که یاد گرفت اشیاء را با استفاده از فیلم های ضبط شده از دید نوزاد تشخیص دهد، می تواند بینش جدیدی در مورد نحوه یادگیری افراد ارائه دهد.
به گزارش ایسنا، یک مدل هوش مصنوعی (AI) با بررسی تصاویر و فیلمهایی که از بخش کوچکی از زندگی نوزاد و از قسمتی که روی سر نوزاد قرار داده شده بود و دوربین ضبط کرده بود، کلماتی مانند «تخت» و «توپ» را یاد گرفت.
به گزارش طبیعت، وای کین ونگ (وای کین ونگ)، یکی یکی از نویسندگان این مطالعه و محقق هوش مصنوعی در دانشگاه نیویورک می گوید: نتایج نشان می دهد که هوش مصنوعی می تواند به ما در درک نحوه یادگیری افراد کمک کند.
وانگ میگوید این قبلاً نامشخص بود، زیرا سایر مدلهای یادگیری زبان مانند ChatGPT بر روی میلیاردها نقطه داده آموزش دیدهاند که نمیتوانند با تجربیات یک نوزاد در دنیای واقعی مقایسه شوند. وقتی به دنیا می آییم به ما اینترنت نمی دهند.
نویسندگان امیدوارند این تحقیق که در 1 فوریه در مجله Science گزارش شده است، به بحث طولانی مدت در مورد چگونگی یادگیری زبان کودکان بیفزاید. هوش مصنوعی زبان را به سادگی با ایجاد ارتباط بین تصاویر و کلماتی که با هم می دید، یاد گرفت.
این هوش مصنوعی بدون هیچ دانش زبان قبلی برنامه ریزی شده است. وونگ میگوید این موضوع برخی از نظریههای علوم شناختی را به چالش میکشد که نوزادان به دانش ذاتی در مورد نحوه عملکرد زبان برای معنا بخشیدن به کلمات نیاز دارند.
هدر بورتفلد، دانشمند شناختی در دانشگاه کالیفرنیا، برکلی، میگوید این مطالعه «رویکردی جذاب» برای درک یادگیری اولیه زبان در کودکان است.
دیدگاه کودک
وونگ و همکارانش از 61 ساعت فیلم از دوربینی که روی کلاه ایمنی پسر بچه ای به نام سام نصب شده بود استفاده کردند تا تجربیاتی را از دید کودک جمع آوری کنند. سام که در نزدیکی آدلاید استرالیا زندگی می کند، از شش ماهگی تا حدود دو سالگی به مدت یک ساعت، تقریباً یک درصد از زمان بیداری خود، هفته ای دو بار دوربین را می پوشید.
محققان شبکه عصبی خود را که یک هوش مصنوعی الهام گرفته از ساختار مغز است، با استفاده از تصاویر ویدئویی و کلماتی که سام بیان میکرد، آموزش دادند. این مدل در معرض 250000 کلمه و تصاویر مربوطه در حین فعالیت هایی مانند بازی، خواندن و خوردن قرار گرفت. این مدل از روشی به نام یادگیری متخاصم استفاده کرد تا بفهمد کدام تصاویر و متن با هم مطابقت دارند و کدام یک مطابقت ندارند.
برای آزمایش این هوش مصنوعی، محققان از مدل خواستند کلمه ای به آن بگوید یکی چهار تصویر انتخاب شده را مطابقت دهید. از این آزمون برای سنجش مهارت های زبانی کودکان نیز استفاده می شود.
هوش مصنوعی در 62 درصد مواقع اشیاء را با موفقیت طبقه بندی کرد، عملکردی بسیار بهتر از 25 درصدی که به طور تصادفی انتظار می رفت و قابل مقایسه با یک مدل هوش مصنوعی مشابه که روی 400 میلیون تصویر و متن در کل مجموعه اجرا می شد. داده ها آموزش داده شده است.
برای برخی از کلمات، مانند “سیب” و “سگ”، این مدل توانست نمونه هایی را که قبلا دیده نشده بود به درستی شناسایی کند. این معمولا برای مردم نسبتا آسان است.
به طور متوسط، هوش مصنوعی در 35٪ مواقع این کار را انجام داد. وونگ می گوید که مدل زبان حتی در شناسایی اشیایی که از نظر ظاهری تفاوت چندانی با هم ندارند، بسیار خوب عمل کرده است. او برای یادگیری کلماتی که میتوانستند به چیزهای مختلفی اشاره کنند، مانند «اسباببازیها» مشکلتر بود.
درس هایی در مورد یادگیری
بورتفلد میگوید اتکای این مطالعه به دادههای یک کودک مجرد ممکن است سؤالاتی را درباره تعمیمپذیری نتایج به موارد دیگر ایجاد کند، زیرا تجربیات و محیطهای کودکان بسیار متفاوت است.
او می افزاید، اما این تمرین نشان داد که می توان در روزهای اولیه زندگی نوزاد با ایجاد ارتباط بین منابع حسی مختلف، چیزهای زیادی آموخت.
یادگیری زبان در دنیای واقعی بسیار غنی تر و متنوع تر از هوش مصنوعی است. محققان می گویند هوش مصنوعی نمی تواند تعاملات ذاتی در زندگی یک نوزاد واقعی را تجربه کند، زیرا به آموزش با تصاویر ثابت و متن نوشته شده محدود می شود.
به عنوان مثال، وونگ گفت که هوش مصنوعی در یادگیری کلمه «دست» که معمولاً در اوایل زندگی کودک یاد میشود، مشکل داشت. بچه ها دست خود را دارند، تجربه زیادی با آنها دارند. این قطعاً جزء گمشده مدل ما است.