استاد اخترفیزیک دانشگاه منچستر در مقاله ای جدید مدعی شده است که هوش مصنوعی می تواند مسئول جلوگیری از دستیابی انسان ها به تمدن های فضایی پیشرفته و حیات بیگانه باشد.

به گزارش ایسنا، هوش مصنوعی به سرعت به اینجا رسیده است یکی این یکی از دگرگون‌کننده‌ترین فناوری‌های جدید در تاریخ بشر محسوب می‌شود و تأثیرات بالقوه آن، چه مثبت یا منفی، بحث‌های داغی را برانگیخته است.

به گزارش Advanced Science News، مقاله ای که اخیرا توسط «مایکل گرت» استاد اخترفیزیک دانشگاه منچستر نوشته شده است، نشان می دهد که هوش مصنوعی می تواند توضیحی باشد برای اینکه چرا ما هنوز تمدن هایی داریم که در سایر نقاط جهان وجود ندارند. جهان با فناوری پیشرفته روبرو شد.

فرضیه های زیادی وجود دارد که توضیح می دهد چرا ستاره شناسان هیچ نشانه ای از حیات فرازمینی را در حجم عظیم داده های نجومی جمع آوری شده در 60 سال گذشته پیدا نکرده اند. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.

گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. گرت استدلال می کند که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور روبرو شود، از ظهور حیات هوشمند جلوگیری می کند.

به گفته گرت، هوش مصنوعی ممکن است مسئول فقدان تمدن های پیشرفته از نظر فناوری باشد، زیرا این فیلتر قبل از اینکه تمدن بتواند سفر چند سیاره ای را انجام دهد رخ می دهد. ناامیدکننده‌تر این است که استدلال گرت نشان می‌دهد که طول عمر معمول یک تمدن فناوری کمتر از 200 سال است.

با این حال، همه چیز تلخ و تاریک نیست زیرا هوش مصنوعی مزایای خود را دارد.

مزایا و خطرات هوش مصنوعی

هوش مصنوعی در یک بازه زمانی بی سابقه در مقایسه با سایر فناوری های بالقوه مخرب توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام می شود و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.

از مراقبت های بهداشتی گرفته تا کسب و کار، آموزش، پلیس و امنیت ملی، به نظر می رسد که هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت نوشت، تصور رشته ای که رشد هوش مصنوعی را ندیده باشد، سخت است.

هوش مصنوعی، مانند هر فناوری، با وجود تمام مزایای بالقوه ای که می تواند داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است.

گارت توضیح داد که جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.

گرچه این نگرانی های اخلاقی و اجتماعی نیاز به بررسی جدی دارد، گرت استدلال می کند که ممکن است آنها عواملی در سقوط تمدن نباشند. در سال 2014، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی توانایی تکامل مستقل، طراحی مجدد خود را سریع‌تر و تبدیل شدن به ابر هوش مصنوعی به دست آورد، به معنای پایان بشریت است. گرت دریافت که جامعه بشری به سرعت به قلمروی ناشناخته رانده می شود.

علاوه بر ترس از اینکه هوش مصنوعی می تواند به عنوان یک سلاح استفاده شود، گرت استدلال کرد که سرعت فرآیندهای تصمیم گیری هوش مصنوعی می تواند تضادها را بسیار فراتر از اهداف اصلی آنها تشدید کند. چه اتفاقی می‌افتد وقتی این سیستم‌های هوش مصنوعی دیگر به پشتیبانی تمدن‌های بیولوژیکی برای وجود تکیه نکنند؟

گرت نوشت، هنگامی که به تکینگی تکنولوژیک رسیدیم، سیستم‌های هوش مصنوعی به سرعت از هوش بیولوژیکی پیشی می‌گیرند و با سرعتی تکامل می‌یابند که مکانیزم‌های نظارت سنتی را کاملاً دور می‌زند و منجر به پیامدهای پیش‌بینی نشده و ناخواسته‌ای می‌شود که بعید است به علایق بیولوژیکی یا اخلاقیات مرتبط باشد.

وی افزود: عملی بودن نگهداری موجودات زنده با نیازهای گسترده آنها به منابعی مانند انرژی و فضا، ممکن است با راندمان محاسباتی همسو نباشد و هوش مصنوعی را به عنوان یک مزاحم تلقی کند.

این در واقع یک ایده نگران کننده است و مخالفان هوش مصنوعی مستعد آن هستند، اما در حال حاضر بدترین سناریو را نشان می دهد.

نقش تعیین کننده نگرش ها

حقیقت این است که ما در حال ورود به قلمروی ناشناخته در هوش مصنوعی هستیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن روبرو هستیم، هنوز در محدوده محدودیت‌های انسان‌ساز عمل می‌کند، و باید بدانیم که هنوز عاملیت و توانایی شکل‌دهی به مسیر آن را داریم.

گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات ابرهوش مصنوعی ابرهوشمند، سفر چند سیاره ای است، به طوری که انسان می تواند به گونه ای زیستی چند سیاره ای تبدیل شود و از تجربیات خود در سیارات مختلف برای تنوع بخشیدن، ایجاد استراتژی های بقا و جلوگیری از شکست استفاده کند. .

با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل نه محتمل و نه واقعی به نظر می رسد. گرت نوشت: «البته این ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی سوق می دهد. بدون مقررات عملی، دلایل زیادی وجود دارد که باور کنیم هوش مصنوعی یک تهدید بزرگ برای توسعه آینده نه تنها تمدن تکنولوژیکی ما، بلکه تمام تمدن های تکنولوژیکی است.

وی افزود: اگرچه بازیگران صنعت، سیاست گذاران، کارشناسان و دولت ها قبلاً هشدار داده بودند که مقررات لازم است، اما ایجاد یک چارچوب نظارتی قابل قبول در سطح جهانی چالش برانگیز خواهد بود.

با این حال، تنظیم هوش مصنوعی غیرممکن نیست. تأثیر تصمیم‌های هوش مصنوعی مستقل اخیراً منجر به درخواست‌هایی برای توقف توسعه هوش مصنوعی شده است تا زمانی که یک شکل مسئول از کنترل و مقررات برقرار شود.

با توجه به اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، ایجاد یک مجموعه قوانین جهانی با مشکلاتی مواجه خواهد شد. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً سریعتر از چارچوب نظارتی توافق شده پیشرفت می کند و این نگرانی را ایجاد می کند که چارچوب ها همیشه از پیشرفت های جدید و پیش بینی نشده در این زمینه عقب باشند.

اگر به آینده نگاه کنیم، ممکن است بتوانیم دیدگاه بهتری نسبت به چالش های فعلی خود داشته باشیم. گرت می‌نویسد: «با بررسی احتمالات تمدن‌های فرازمینی، این آزمایش فکری به ما کمک می‌کند در مورد پایداری طولانی‌مدت تمدن خود فکر کنیم، خطرات بالقوه‌ای را که با آن روبرو هستیم، بشناسیم و در نظر بگیریم که چگونه می‌توانیم بر چالش‌های آینده غلبه کنیم.

این تحقیق در مجله Acta Astronautica منتشر شده است.

اخبار مرتبط

ارسال به دیگران :

آخرین اخبار

همکاران ما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *