پست قبلی را ببینید.
ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.![]()
پست قبلی را ببینید.
ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.![]()
I am a degenerate
در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.
اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی
١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترلکنندهای از پایه پیادهسازی نشده باشد.
پس باری دیگر, اگر امنترین وسیلهیِ نقلیهیِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠%
برسد, آنگاه بروشنی ساخت و کنترل ابرهوشوارهای که میلیاردها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.
پ.ن.
--
The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forum
Professor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTube
Recently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.
1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.
2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.
Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?
I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.
Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?
بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!
—مزدک بامداد
در ساخت ابرهوشوارهها:
نمیتوان آنها را کنترل کرد
پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانونهایِ
آنتروپی, درست همانجور که جهشهایِ ژنتیکی همگی زیانآور میباشند مگر یک اندکشماری,
ساخت ابرهوشوارهای که روشن نیست چه خواهد کرد کوچکترین خردپذیریای در خود ندارد.
نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟آیا اسکای نت دم در ایستاده است؟
اگر اینجا گفتمانی دارد میشود ازینروست که بخت و زمان اندکی هنوز هست
که از پیدایش این آینده جلوگیری بشود, اگر نه که همهیِ این گفتگوها بیهوده خواهند بود.
بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!
—مزدک بامداد
مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now
![]()
I am a degenerate
ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیاردها میلیارد بار فراتر از هوشمندترین آدم میرود.
نکتهیِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟
آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافتهاید بی
هیچگونه چون و چرایی, برای دهههای در پیش رو استناد خواهند نموده و بهیکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟
فیلم ترمیناتور یک فیلم سرگرمکننده است و آماج ساخت آن نیز پول سازی
برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.
——
و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟
+
منتظر چه توضیحی هستید؟ آیا از صدها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, دهها هزاران پژوهش
و پژوهشگاههایی که برای ساخت دستگاههایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
قرصهایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونهیِ دیگر کوچکترین آگاهیای ندارید!؟
--
پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟
ما هتّا تراز را از این هم پایینتر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونهیِ
جنگافزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟
.
ویرایش از سوی Mehrbod : 02-18-2016 در ساعت 08:05 PM
بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!
—مزدک بامداد
از آنجایی که من روی گوشی هستم، دستکاری متون برایم سخت است. پاسخ پنج پاراگراف را باید شماره گذاری کنم.
1-خیر، نمیتواند. هوش هر اندازه نیز باشد نمیتواند غیر ممکن را ممکن کند. از طرفی دیگر، دانشمندانی که قرار است این هوش مصنوعی در بند را آزمایش و مطالعه کنند، میتوانند سرعت آن را پایین بیاورند، متوقف کنند، پروسه های فکری این غول با شاخ و دم مجازی را رویت کنند. شبیه سازی است دیگر!وقتی همه بتوانند فکرت را بخوانند و آن را دستکاری کنند، چه کار خطایی میتواند ازت سر بزند؟
بهانه نیاورید لطفا.من تنها یک تراهومنگرایم، کسانی که این کار را خواهند کرد متخصصان و صاحب نظران هوش مصنوعی خواهند بود، عقلشان بهتر از من کار میکند و این کار را به ایمن ترین شیوه متصور انجام خواهند داد. و همانگونه که گفتم فقط و فقط بار اول موفقیت کافی است. اگر کسی بعدا گند زد کافی است زنگ بزند به هوش مصنوعی "آلفا" کمک طلب کند برای جمع کردنش!
2- البته، The Forbin project و I have no mouth and I must scream آثار بهتری در این زمینه هستند.
3- سو تفاهم شده است، دموکراتیزه یعنی رسیدن تکنولوژی ها از دست محققان به دست ننه قمر که اجتناب ناپذیر برای همه آنها اتفاق میافتد. همین گوشی ها را در نظر بگیرید. و این قرار نیست محافظت کند، نظارت و پدافند و غیره قرار است.
4- این بود منظورتان از کنترل مغز؟ خوب شد حرفی از memetics نزدید وگرنه رسما میریدم!
5- ر.ک. به 3
I am a degenerate
هماکنون 2 کاربر سرگرم دیدن این جُستار است. (0 کاربر و 2 مهمان)