استاد اخترفیزیک دانشگاه منچستر در مقاله ای جدید مدعی شده است که هوش مصنوعی می تواند مسئول جلوگیری از دستیابی انسان ها به تمدن های فضایی پیشرفته و حیات بیگانه باشد.
به گزارش ایسنا، هوش مصنوعی به سرعت به اینجا رسیده است یکی این یکی از دگرگونکنندهترین فناوریهای جدید در تاریخ بشر محسوب میشود و تأثیرات بالقوه آن، چه مثبت یا منفی، بحثهای داغی را برانگیخته است.
به گزارش Advanced Science News، مقاله ای که اخیرا توسط «مایکل گرت» استاد اخترفیزیک دانشگاه منچستر نوشته شده است، نشان می دهد که هوش مصنوعی می تواند توضیحی باشد برای اینکه چرا ما هنوز تمدن هایی داریم که در سایر نقاط جهان وجود ندارند. جهان با فناوری پیشرفته روبرو شد.
فرضیه های زیادی وجود دارد که توضیح می دهد چرا ستاره شناسان هیچ نشانه ای از حیات فرازمینی را در حجم عظیم داده های نجومی جمع آوری شده در 60 سال گذشته پیدا نکرده اند. از جمله این فرضیه ها می توان به «پارادوکس فرمی»، «فرضیه باغ وحش» و «نظریه جنگل تاریک» اشاره کرد.
گرت استدلال می کند که هوش مصنوعی می تواند یک فیلتر قدرتمند باشد. گرت استدلال می کند که هر تمدنی که با یک مانع جهانی یا چالش غیرقابل عبور روبرو شود، از ظهور حیات هوشمند جلوگیری می کند.
به گفته گرت، هوش مصنوعی ممکن است مسئول فقدان تمدن های پیشرفته از نظر فناوری باشد، زیرا این فیلتر قبل از اینکه تمدن بتواند سفر چند سیاره ای را انجام دهد رخ می دهد. ناامیدکنندهتر این است که استدلال گرت نشان میدهد که طول عمر معمول یک تمدن فناوری کمتر از 200 سال است.
با این حال، همه چیز تلخ و تاریک نیست زیرا هوش مصنوعی مزایای خود را دارد.
مزایا و خطرات هوش مصنوعی
هوش مصنوعی در یک بازه زمانی بی سابقه در مقایسه با سایر فناوری های بالقوه مخرب توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام می شود و نحوه تعامل ما با فناوری را به طور اساسی تغییر می دهد.
از مراقبت های بهداشتی گرفته تا کسب و کار، آموزش، پلیس و امنیت ملی، به نظر می رسد که هیچ حوزه ای دست نخورده باقی نمانده باشد. گرت نوشت، تصور رشته ای که رشد هوش مصنوعی را ندیده باشد، سخت است.
هوش مصنوعی، مانند هر فناوری، با وجود تمام مزایای بالقوه ای که می تواند داشته باشد، دارای پتانسیل بسیار بالایی برای آسیب است.
گارت توضیح داد که جای تعجب نیست که انقلاب هوش مصنوعی نگرانی های جدی در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، تعصب الگوریتمی، تبعیض، شفافیت، تغییرات اجتماعی، مسئولیت پذیری، حریم خصوصی و تصمیم گیری اخلاقی ایجاد کرده است.
گرچه این نگرانی های اخلاقی و اجتماعی نیاز به بررسی جدی دارد، گرت استدلال می کند که ممکن است آنها عواملی در سقوط تمدن نباشند. در سال 2014، استیون هاوکینگ فقید آشکارا هشدار داد که اگر هوش مصنوعی توانایی تکامل مستقل، طراحی مجدد خود را سریعتر و تبدیل شدن به ابر هوش مصنوعی به دست آورد، به معنای پایان بشریت است. گرت دریافت که جامعه بشری به سرعت به قلمروی ناشناخته رانده می شود.
علاوه بر ترس از اینکه هوش مصنوعی می تواند به عنوان یک سلاح استفاده شود، گرت استدلال کرد که سرعت فرآیندهای تصمیم گیری هوش مصنوعی می تواند تضادها را بسیار فراتر از اهداف اصلی آنها تشدید کند. چه اتفاقی میافتد وقتی این سیستمهای هوش مصنوعی دیگر به پشتیبانی تمدنهای بیولوژیکی برای وجود تکیه نکنند؟
گرت نوشت، هنگامی که به تکینگی تکنولوژیک رسیدیم، سیستمهای هوش مصنوعی به سرعت از هوش بیولوژیکی پیشی میگیرند و با سرعتی تکامل مییابند که مکانیزمهای نظارت سنتی را کاملاً دور میزند و منجر به پیامدهای پیشبینی نشده و ناخواستهای میشود که بعید است به علایق بیولوژیکی یا اخلاقیات مرتبط باشد.
وی افزود: عملی بودن نگهداری موجودات زنده با نیازهای گسترده آنها به منابعی مانند انرژی و فضا، ممکن است با راندمان محاسباتی همسو نباشد و هوش مصنوعی را به عنوان یک مزاحم تلقی کند.
این در واقع یک ایده نگران کننده است و مخالفان هوش مصنوعی مستعد آن هستند، اما در حال حاضر بدترین سناریو را نشان می دهد.
نقش تعیین کننده نگرش ها
حقیقت این است که ما در حال ورود به قلمروی ناشناخته در هوش مصنوعی هستیم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره خود با آن روبرو هستیم، هنوز در محدوده محدودیتهای انسانساز عمل میکند، و باید بدانیم که هنوز عاملیت و توانایی شکلدهی به مسیر آن را داریم.
گرت معتقد است که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات ابرهوش مصنوعی ابرهوشمند، سفر چند سیاره ای است، به طوری که انسان می تواند به گونه ای زیستی چند سیاره ای تبدیل شود و از تجربیات خود در سیارات مختلف برای تنوع بخشیدن، ایجاد استراتژی های بقا و جلوگیری از شکست استفاده کند. .
با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفرهای فضایی، این راه حل نه محتمل و نه واقعی به نظر می رسد. گرت نوشت: «البته این ما را به موضوع پیچیده تنظیم و کنترل هوش مصنوعی سوق می دهد. بدون مقررات عملی، دلایل زیادی وجود دارد که باور کنیم هوش مصنوعی یک تهدید بزرگ برای توسعه آینده نه تنها تمدن تکنولوژیکی ما، بلکه تمام تمدن های تکنولوژیکی است.
وی افزود: اگرچه بازیگران صنعت، سیاست گذاران، کارشناسان و دولت ها قبلاً هشدار داده بودند که مقررات لازم است، اما ایجاد یک چارچوب نظارتی قابل قبول در سطح جهانی چالش برانگیز خواهد بود.
با این حال، تنظیم هوش مصنوعی غیرممکن نیست. تأثیر تصمیمهای هوش مصنوعی مستقل اخیراً منجر به درخواستهایی برای توقف توسعه هوش مصنوعی شده است تا زمانی که یک شکل مسئول از کنترل و مقررات برقرار شود.
با توجه به اولویت های متفاوت فرهنگی، اقتصادی و اجتماعی ملل مختلف، ایجاد یک مجموعه قوانین جهانی با مشکلاتی مواجه خواهد شد. علاوه بر این، توسعه سریع هوش مصنوعی احتمالاً سریعتر از چارچوب نظارتی توافق شده پیشرفت می کند و این نگرانی را ایجاد می کند که چارچوب ها همیشه از پیشرفت های جدید و پیش بینی نشده در این زمینه عقب باشند.
اگر به آینده نگاه کنیم، ممکن است بتوانیم دیدگاه بهتری نسبت به چالش های فعلی خود داشته باشیم. گرت مینویسد: «با بررسی احتمالات تمدنهای فرازمینی، این آزمایش فکری به ما کمک میکند در مورد پایداری طولانیمدت تمدن خود فکر کنیم، خطرات بالقوهای را که با آن روبرو هستیم، بشناسیم و در نظر بگیریم که چگونه میتوانیم بر چالشهای آینده غلبه کنیم.
این تحقیق در مجله Acta Astronautica منتشر شده است.