نوشته اصلی از سوی
Nilftrondheim
تکلیف را روشن کنید، به کدام دلیل AI (و شاید nanotech) خطرناک میباشند؟ دو حالت زیر جمع پذیر نیستند!
- میتوان آن ها را کنترل کرد و جهت داد. در این صورت به همان بحث benevolence برمیگردیم که باید اولین یا اولین ها "خوب ها" باشند تا پس از آن مشکلی پیش نیاید. فکر کنید پروژه منهتن را اول بار نازی ها یا شوروی اجرا میکردند چه میشد!!!
.If it can be done, someone's gonna do it. Let's make sure they're the good guys
- نمیتوان آن ها را کنترل کرد و جهت داد. اینها اساسا ناپایدار و غیر قابل پیش بینی هستند و هر گونه استفاده از آنها منجر به آخرالزمان میگردد. در اینجا دو چیز باید روشن شود:
- آیا ناپایدار الزاما به معنی مخرب است؟ از بحث محبوب روانپزشکی مثال بزنم. یک اسکیزوفرن نمیتواند قاتل زنجیره ای باشد. یک سایکوپت میتواند. حتی مخرب بودن نیز نیاز به پایداری و هدفمندی دارد.
- آیا اسکای نت دم در ایستاده است؟ طوری از این تکنولوژی ها سخن میگویید گویا همین فردا اتفاق خواهد افتاد!
ما هنوز نتوانسته ایم 302 نورون یک کرم را شبیه سازی کنیم، چطور انتظار دارید بشر چیزی در این حد پیچیده بسازد سپس نتواند آن را کنترل کند؟ هوش مصنوعی را 30 سال بعد دانشمندانی مجهز به Nootropics و Neural Augmentations خواهند ساخت، کسانی که تفاوت زیادی با آن ندارند!
کدام خوبی؟ امید به زندگی 25 سال؟
نوشته اصلی از سوی
Nilftrondheim
همنطور که گفتم باید ابتدا روشن کنید کدام دو حالت مد نظرتان است. یا اگر حالت های دیگری نیز ممکن است بیان کنید.
در ساخت ابرهوشوارهها:
نمیتوان آنها را کنترل کرد
پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانونهایِ
آنتروپی, درست همانجور که جهشهایِ ژنتیکی همگی زیانآور میباشند مگر یک اندکشماری,
ساخت ابرهوشوارهای که روشن نیست چه خواهد کرد کوچکترین خردپذیریای در خود ندارد.
آیا اسکای نت دم در ایستاده است؟
نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟
اگر اینجا گفتمانی دارد میشود ازینروست که بخت و زمان اندکی هنوز هست
که از پیدایش این آینده جلوگیری بشود, اگر نه که همهیِ این گفتگوها بیهوده خواهند بود.