این افلاطون بود که اولین بار این ایده را مطرح کرد. در تمثیل معروف «غار»، او زندانیانی را در غار به زنجیر کشیده در حالی که صورتشان به دیوار تکیه داده بود در حالی که آتشی پشت سرشان شعله ور بود، به تصویر کشید. زندانیان فقط می‌توانستند چیزی را از میان سایه‌های دیوار جلویشان ببینند. آنها خود اشیا را نمی دیدند و فقط هر چیزی را که از جلوی آتش می گذشت از سایه آن روی دیوار می شناختند. به نظر می رسد که این مثل در زمان ما هنوز معتبر است و می تواند حدود درک ما را توضیح دهد.

به گزارش فرادید، در شرایط مدرن، می‌توان محدودیت‌های مدل‌های هوش مصنوعی را مشابه محدودیت‌های زندانیان افلاطون تصور کرد. هوش مصنوعی ربطی به خود دنیا و چیزهای موجود در آن ندارد، فقط به داده هایی که ما به آن می دهیم نگاه می کند. تلاش برای درک این سایه ها در حین ارزیابی احتمالات، روابط، الگوها یا روندها برای ایجاد بهترین پیش بینی های موجود است. اساساً هوش مصنوعی در غار داده خودش قفل شده است.

ده ها در هسته خود، تفسیری از جهان ما و بخش های مختلف آن هستند. این صرفا یک ارائه انتخابی از مشاهدات، اندازه گیری ها و اطلاعات در مورد پدیده های مختلف است. از آنجایی که خود داده ها نامحدود هستند، فرآیند انتخاب داده محدود می شود و بنابراین ذاتاً سلیقه ای و شخصی است.

مدل‌های هوش مصنوعی که ما بر اساس این داده‌ها می‌سازیم به ساده‌سازی‌ها متکی هستند تا مقرون‌به‌صرفه‌تر باشند و همچنان برای ما منطقی باشند. بنابراین، هیچ مدل هوش مصنوعی نمی تواند نمایشی کامل و جامع از دنیای واقعی باشد، بلکه تنها نسخه ای ساده و جزئی از آن است.

داده‌هایی که برای آموزش مدل‌ها نیاز داریم نیز می‌توانند ناقص، مغرضانه یا مغرضانه باشند. وقتی این اتفاق می‌افتد، مدل‌ها چیزی را تولید می‌کنند که انسان‌ها آن را بی‌معنی تفسیر می‌کنند. خود مدل ها نمی توانند عیب های خود را با چشم انسان ببینند زیرا آنها فقط آنچه را که به آنها تغذیه می شود می بینند. همانطور که سایه های افلاطون دید زندانیان را محدود می کرد، ما جهان را برای مدل های هوش مصنوعی خود محدود می کنیم.

به همین دلیل است که مدل‌های هوش مصنوعی مرتکب اشتباهاتی می‌شوند مانند: پیش‌بینی اتوبوسی که دو سال تاخیر دارد، تشخیص کیف پولی که در واقع یک آجر است، یا ایجاد تصویری از یک گربه با پنج پا! در دنیای مدل ها، همه اینها نتایج معتبری هستند. اما در دنیای ما اینها پیش بینی های بد، تشخیص اشتباه یا توهم هستند.

اما اگر مدل‌های هوش مصنوعی بتوانند مستقل از مشاهدات، تفاسیر و محدودیت‌های ما به خود در مورد جهان آموزش دهند، ممکن است استراتژی‌ها و دیدگاه‌های منحصربه‌فرد خود را در مورد جهان توسعه دهند.

در یکی در یکی از بازی‌هایی که شطرنج‌باز مدلی به نام «آلفاگو» در برابر قهرمان انسانی به نام لی سدول انجام داد، آلفاگو حرکتی را انجام داد که کارشناسان ابتدا آن را «احمقانه» نامیدند، اما در نهایت این حرکت «احمقانه» برای پیروزی آلفاگو بسیار مهم بود. . چنین موردی نشان می‌دهد که مدل‌های هوش مصنوعی خودآموز می‌توانند راه‌حل‌ها و پدیده‌هایی را که انسان نمی‌تواند ببیند، تشخیص دهد.

افلاطون در تمثیل غار می گوید وظیفه فیلسوف این است که با خروج از غار و در نظر گرفتن عقاید، کلیات، الگوها و مفاهیم گوناگون، درباره جهان بیشتر بیاموزد. همانطور که از سایه ها به کلیات و انتزاعات می رسیم، شروع به درک جهان می کنیم و از درک فقط قلمرو مرئی به مفهوم سازی آن در قلمرو فکر و هوش حرکت می کنیم.

اما برای اینکه هوش مصنوعی فعلی از غار خارج شود و هوش خود را توسعه دهد، به زمان و منابع نیاز دارد. در این میان، باید به خاطر داشته باشیم که سیستم‌های هوش مصنوعی ما عمدتاً مدل‌های تخصصی هستند که ما آموزش می‌دهیم و تغذیه می‌کنیم.

این مدل ها در درک خود محدود هستند. ما در مرحله ای هستیم که هوش مصنوعی می تواند الگوها را تشخیص دهد و پیش بینی کند، اما نمی تواند افکار شناختی یا انتزاعی ایجاد کند. همچنین لازم نیست افلاطونی باشیم تا به یاد داشته باشیم که هر چقدر هم که نتایج هوش مصنوعی قانع کننده باشد، باید تفکر انتقادی خود را حفظ کنیم و همیشه در نظر داشته باشیم که هوش مصنوعی هنوز در یک غار است.

اخبار مرتبط

ارسال به دیگران :

آخرین اخبار

همکاران ما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *