• Empty
  • قاطی کردم
  • مهربون
  • موفق
  • متعجب
  • مریض
  • مشغول
  • معترض
  • ناراحت
  • هیچ
  • کنجکاو
  • کسل
  • گیج شدم
  • گریه
  • پکر
  • اخمو
  • از خود راضی
  • بی تفاوفت
  • بد جنس
  • بد حال
  • خونسرد
  • خواب آلود
  • خوشحال
  • خجالتی
  • خسته
  • دلواپس
  • رنجور
  • ریلکس
  • سپاسگزار
  • سر به زیر
  • شوکه
  • شاد و سر حال
  • عاشق
  • عصبانی
  • غمگین
  • غافلگیر
  • User Tag List

    نمایش پیکها: از 1 به 10 از 417

    جُستار: پیشرفت روزافزون فندآوری: به کجا می‌رویم؟

    Hybrid View

    1. #1
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      پست قبلی را ببینید.


      ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.
      در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.

      اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی
      ١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترل‌کننده‌ای از پایه پیاده‌سازی نشده باشد.


      پس باری دیگر, اگر امن‌ترین وسیله‌یِ نقلیه‌یِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠%
      برسد, آنگاه بروشنی ساخت و کنترل ابرهوشواره‌ای که میلیارد‌ها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.




      پ.ن.
      --




      The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forum

      Professor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTube

      Recently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.

      1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.

      2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.


      Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?

      I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.

      Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    2. #2
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      22
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترل‌کننده‌ای از پایه پیاده‌سازی نشده باشد.پس باری دیگر, اگر امن‌ترین وسیله‌یِ نقلیه‌یِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠% برسد, آنگاه بروشنی ساخت و کنترل ابرهوشواره‌ای که میلیارد‌ها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.پ.ن.--

      The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forumProfessor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTubeRecently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?

      همنطور که گفتم باید ابتدا روشن کنید کدام دو حالت مد نظرتان است. یا اگر حالت های دیگری نیز ممکن است بیان کنید.
      I am a degenerate

    3. #3
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      تکلیف را روشن کنید، به کدام دلیل AI (و شاید nanotech) خطرناک میباشند؟ دو حالت زیر جمع پذیر نیستند!

      - میتوان آن ها را کنترل کرد و جهت داد. در این صورت به همان بحث benevolence برمیگردیم که باید اولین یا اولین ها "خوب ها" باشند تا پس از آن مشکلی پیش نیاید. فکر کنید پروژه منهتن را اول بار نازی ها یا شوروی اجرا میکردند چه میشد!!!

      .If it can be done, someone's gonna do it. Let's make sure they're the good guys

      - نمیتوان آن ها را کنترل کرد و جهت داد. اینها اساسا ناپایدار و غیر قابل پیش بینی هستند و هر گونه استفاده از آنها منجر به آخرالزمان میگردد. در اینجا دو چیز باید روشن شود:

      - آیا ناپایدار الزاما به معنی مخرب است؟
      از بحث محبوب روانپزشکی مثال بزنم. یک اسکیزوفرن نمیتواند قاتل زنجیره ای باشد. یک سایکوپت میتواند. حتی مخرب بودن نیز نیاز به پایداری و هدفمندی دارد.

      - آیا اسکای نت دم در ایستاده است؟ طوری از این تکنولوژی ها سخن میگویید گویا همین فردا اتفاق خواهد افتاد! ما هنوز نتوانسته ایم 302 نورون یک کرم را شبیه سازی کنیم، چطور انتظار دارید بشر چیزی در این حد پیچیده بسازد سپس نتواند آن را کنترل کند؟ هوش مصنوعی را 30 سال بعد دانشمندانی مجهز به Nootropics و Neural Augmentations خواهند ساخت، کسانی که تفاوت زیادی با آن ندارند!



      کدام خوبی؟ امید به زندگی 25 سال؟



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      همنطور که گفتم باید ابتدا روشن کنید کدام دو حالت مد نظرتان است. یا اگر حالت های دیگری نیز ممکن است بیان کنید.


      در ساخت ابرهوشواره‌ها:

      نمیتوان آنها را کنترل کرد

      پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانون‌هایِ
      آنتروپی, درست همانجور که جهش‌هایِ ژنتیکی همگی زیان‌آور میباشند مگر یک اندک‌شماری,
      ساخت ابرهوشواره‌ای که روشن نیست چه خواهد کرد کوچکترین خردپذیری‌ای در خود ندارد.





      آیا اسکای نت دم در ایستاده است؟
      نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟

      اگر اینجا گفتمانی دارد میشود ازینرو‌ست که بخت و زمان اندکی هنوز هست
      که از پیدایش این آینده جلوگیری بشود, اگر نه که همه‌یِ این گفتگو‌ها بیهوده خواهند بود.

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    4. #4
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      22
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      در ساخت ابرهوشواره‌ها:
      نمیتوان آنها را کنترل کرد
      پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانون‌هایِ آنتروپی, درست همانجور که جهش‌هایِ ژنتیکی همگی زیان‌آور میباشند مگر یک اندک‌شماری, ساخت ابرهوشواره‌ای که روشن نیست چه خواهد کرد کوچکترین خردپذیری‌ای در خود ندارد.نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟اگر اینجا گفتمانی دارد میشود ازینرو‌ست که بخت و زمان اندکی هنوز هست که از پیدایش این آینده جلوگیری بشود, اگر نه که همه‌یِ این گفتگو‌ها بیهوده خواهند بود.
      مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now
      I am a degenerate

    5. #5
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now
      ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
      یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیارد‌ها میلیارد‌ بار فراتر از هوشمندترین آدم میرود.


      نکته‌یِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
      پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟

      آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافته‌اید بی
      هیچگونه چون و چرایی, برای دهه‌های در پیش رو استناد خواهند نموده و به‌یکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟





      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!!
      فیلم ترمیناتور یک فیلم سرگرم‌کننده است و آماج ساخت آن نیز پول سازی
      برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.




      ——



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      این همان چیزی است که من گفتم، تکنولوژی هایی که پتانسیل سو استفاده دارند غیر قابل اجتناب دموکراتیزه خواهند شد،
      و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      در این صورت تنها نظارت و غیره هستند که نمیگذارند اوضاع از کنترل خارج شود. شما آزاد هستید، تا جایی که در راکتور اتمی شخصیتان بمب کثیف نسازید. انتظار زیادی است؟
      +


      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      هنوز هم منتظر توضیحتان در مورد ابزارهای کنترل مغز هستم.

      منتظر چه توضیحی هستید؟ آیا از صد‌ها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, ده‌ها هزاران پژوهش
      و پژوهشگاه‌هایی که برای ساخت دستگاه‌هایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
      قرص‌هایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونه‌یِ دیگر کوچکترین آگاهی‌ای ندارید!؟




      --
      پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
      توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟

      ما هتّا تراز را از این هم پایین‌تر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
      آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونه‌یِ
      جنگ‌افزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟








      .
      ویرایش از سوی Mehrbod : 02-18-2016 در ساعت 08:05 PM

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    6. #6
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      22
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
      یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیارد‌ها میلیارد‌ بار فراتر از هوشمندترین آدم میرود.


      نکته‌یِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
      پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟

      آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافته‌اید بی
      هیچگونه چون و چرایی, برای دهه‌های در پیش رو استناد خواهند نموده و به‌یکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟







      فیلم ترمیناتور یک فیلم سرگرم‌کننده است و آماج ساخت آن نیز پول سازی
      برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.




      ——





      و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟





      +





      منتظر چه توضیحی هستید؟ آیا از صد‌ها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, ده‌ها هزاران پژوهش
      و پژوهشگاه‌هایی که برای ساخت دستگاه‌هایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
      قرص‌هایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونه‌یِ دیگر کوچکترین آگاهی‌ای ندارید!؟




      --
      پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
      توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟

      ما هتّا تراز را از این هم پایین‌تر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
      آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونه‌یِ
      جنگ‌افزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟








      .
      از آنجایی که من روی گوشی هستم، دستکاری متون برایم سخت است. پاسخ پنج پاراگراف را باید شماره گذاری کنم.


      1-خیر، نمیتواند. هوش هر اندازه نیز باشد نمیتواند غیر ممکن را ممکن کند. از طرفی دیگر، دانشمندانی که قرار است این هوش مصنوعی در بند را آزمایش و مطالعه کنند، میتوانند سرعت آن را پایین بیاورند، متوقف کنند، پروسه های فکری این غول با شاخ و دم مجازی را رویت کنند. شبیه سازی است دیگر! وقتی همه بتوانند فکرت را بخوانند و آن را دستکاری کنند، چه کار خطایی میتواند ازت سر بزند؟


      بهانه نیاورید لطفا. من تنها یک تراهومنگرایم، کسانی که این کار را خواهند کرد متخصصان و صاحب نظران هوش مصنوعی خواهند بود، عقلشان بهتر از من کار میکند و این کار را به ایمن ترین شیوه متصور انجام خواهند داد. و همانگونه که گفتم فقط و فقط بار اول موفقیت کافی است. اگر کسی بعدا گند زد کافی است زنگ بزند به هوش مصنوعی "آلفا" کمک طلب کند برای جمع کردنش!


      2- البته، The Forbin project و I have no mouth and I must scream آثار بهتری در این زمینه هستند.


      3- سو تفاهم شده است، دموکراتیزه یعنی رسیدن تکنولوژی ها از دست محققان به دست ننه قمر که اجتناب ناپذیر برای همه آنها اتفاق میافتد. همین گوشی ها را در نظر بگیرید. و این قرار نیست محافظت کند، نظارت و پدافند و غیره قرار است.


      4- این بود منظورتان از کنترل مغز؟ خوب شد حرفی از memetics نزدید وگرنه رسما میریدم!


      5- ر.ک. به 3
      I am a degenerate

    7. #7
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      از آنجایی که من روی گوشی هستم، دستکاری متون برایم سخت است. پاسخ پنج پاراگراف را باید شماره گذاری کنم.


      1-خیر، نمیتواند. هوش هر اندازه نیز باشد نمیتواند غیر ممکن را ممکن کند. از طرفی دیگر، دانشمندانی که قرار است این هوش مصنوعی در بند را آزمایش و مطالعه کنند، میتوانند سرعت آن را پایین بیاورند، متوقف کنند، پروسه های فکری این غول با شاخ و دم مجازی را رویت کنند. شبیه سازی است دیگر! وقتی همه بتوانند فکرت را بخوانند و آن را دستکاری کنند، چه کار خطایی میتواند ازت سر بزند؟
      یک نمونه‌یِ آن, خطای انسانی.

      برای دریافت بهتر, دژآمد (فاجعه) نیروگاه هسته‌ای فوکوشیما که همین چندی پیش رخ داد را دانشمندان یک رویداد سیگما نامیده
      بودند, یعنی احتمال رخداد آنرا یک در میلیون گرفته بودند, با این تفاوت ناچیز که بجای یک میلیون سال آنورتر, تنها ٨ سال دیرتر رخ داد.




      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      بهانه نیاورید لطفا. من تنها یک تراهومنگرایم، کسانی که این کار را خواهند کرد متخصصان و صاحب نظران هوش مصنوعی خواهند بود، عقلشان بهتر از من کار میکند و این کار را به ایمن ترین شیوه متصور انجام خواهند داد. و همانگونه که گفتم فقط و فقط بار اول موفقیت کافی است. اگر کسی بعدا گند زد کافی است زنگ بزند به هوش مصنوعی "آلفا" کمک طلب کند برای جمع کردنش!
      = کورباوری.

      ریشخندآمیزی کار اینجاست که اگر اندکی با این پژوهشگران آشنا بودید میدانستید که چیزهای بسیار پیش پا افتاده‌ای همچون
      همینکه "اخلاقیات" آدمی را نمیتوان به ماشین بهمین آسانی ترابُرد (انتقال داد) هنوز بآسانی دریافت و پذیرفته نشده اند
      و تنها بهترین و نخبه‌ترین‌ها در این زمینه, کسانی مانند Eliezer Yudkowsky تا اندازه‌یِ خوبی به
      این پرداخته‌اند و خود نوشته‌هایِ ایشان, مانند ویدئویی که از Stephen Hawking آمد, همراه با دوز بالایی از نگرانی و بیم است.


      نکته‌ای شایان نگرش: درست همانجور که سازندگان Deep Blue, ابررایانه‌ای که قهرمان شترنگ جهان را شکست داد خود
      نیازی نبود که نه شترنگ‌باز خوبی باشند و نه چیز چندانی از چیز چندانی بدانند بجز برنامه‌نویسی, همانگونه هم بیشمار
      کس میتوانند با پیشرفت و گسترش ابزارها به نوآوری و ساخت هوشواره‌ها بپردازند بی اینکه در زمینه‌هایِ دیگر آگاهی چندانی بدارند.


      --
      در جایگاه قانون‌هایِ احتمالات نیز بیشمار پژوهشگاه با بیشمار باورها و کژباور‌ها و نادرستی‌هایِ اندیشیوی سرگرم
      پژوهش و دستیابی به این تکنولوژی میباشند و پس این اُمیدی سست و بی‌پایه است به اینکه آری, همه‌یِ آنان از بیخ
      میدانند دارند چکار میکنند و برخاسته از خودفریبی. چه بسنده است نیم نگاهی به این پیشینه‌یِ آدمی در دیگر تکنولوژی‌هایِ بسیار ساده‌تر و
      بسیار پیش پا افتاده‌تر, که بهمانند دانشمندان دست اندرکار میدانسته‌اند دارند چه کار میکنند و پیامد‌هایِ آنها انداخته شود. یک نمونه‌یِ آن, فوکوشیما.





      5- ر.ک. به 3
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      3- سو تفاهم شده است، دموکراتیزه یعنی رسیدن تکنولوژی ها از دست محققان به دست ننه قمر که اجتناب ناپذیر برای همه آنها اتفاق میافتد. همین گوشی ها را در نظر بگیرید. و این قرار نیست محافظت کند، نظارت و پدافند و غیره قرار است.
      و سود این دموکراتیزه شدن در گفتمان تکنولوژی چیست؟ آیا دموکراتیزه شدن میتواند برای نمونه از نوآوری ابزارهای کنترل و دستکاری مغز و اندیشه جلوگیری نماید؟




      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      4- این بود منظورتان از کنترل مغز؟ خوب شد حرفی از memetics نزدید وگرنه رسما میریدم!

      نوآوری ابزارهای کنترل مغز پرسمانی زنده و روان است و ریشخندی در خود ندارد.

      یک نمونه‌یِ ساده‌یِ آنرا خود من اینجا آورده بودم


      On the Feasibility of Side-Channel Attacks with Brain-Computer Interfaces

      sec12-final56.pdf

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    داده‌های جُستار

    کاربری که سرگرم دیدن این جُستار هستند

    هم‌اکنون 1 کاربر سرگرم دیدن این جُستار است. (0 کاربر و 1 مهمان)

    جُستارهای همانند

    1. گزین‌گویه‌ها
      از سوی Theodor Herzl در تالار هماندیشی
      پاسخ: 691
      واپسین پیک: 05-11-2015, 03:20 PM
    2. پاسخ: 18
      واپسین پیک: 09-01-2012, 04:16 PM
    3. اندر نکات امنیتی در ساخت ویلاگ
      از سوی Russell در تالار رایانه، اینترنت، تلفن‌های همراه
      پاسخ: 12
      واپسین پیک: 01-09-2012, 01:11 PM
    4. سفری به پناهگاه جیمز باندی ویکی‌لیکس!
      از سوی Dariush Rahazad در تالار دانش و فندآوری
      پاسخ: 2
      واپسین پیک: 12-17-2010, 08:27 AM

    کلیدواژگان این جُستار

    مجوز های پیک و ویرایش

    • شما نمیتوانید جُستار نوی بفرستید
    • شما نمیتوانید پیکی بفرستید
    • شما نمیتوانید فایل پیوست کنید.
    • شما نمیتوانید پست های خود را ویرایش کنید
    •