Warning: preg_replace(): The /e modifier is deprecated, use preg_replace_callback instead in ..../includes/class_bbcode.php on line 2958
پیشرفت روزافزون فندآوری: به کجا می‌رویم؟
  • Empty
  • قاطی کردم
  • مهربون
  • موفق
  • متعجب
  • مریض
  • مشغول
  • معترض
  • ناراحت
  • هیچ
  • کنجکاو
  • کسل
  • گیج شدم
  • گریه
  • پکر
  • اخمو
  • از خود راضی
  • بی تفاوفت
  • بد جنس
  • بد حال
  • خونسرد
  • خواب آلود
  • خوشحال
  • خجالتی
  • خسته
  • دلواپس
  • رنجور
  • ریلکس
  • سپاسگزار
  • سر به زیر
  • شوکه
  • شاد و سر حال
  • عاشق
  • عصبانی
  • غمگین
  • غافلگیر
  • User Tag List

    نمایش پیکها: از 1 به 10 از 417

    جُستار: پیشرفت روزافزون فندآوری: به کجا می‌رویم؟

    Hybrid View

    1. #1
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      به دلیل گفته شده، S≠0 درست است.
      رشته‌یِ سخن را گم کرده‌اید.

      ساخت یک ابرهوشواره — با هوشی میلیون‌ها بار بیشتر از همه‌یِ آدمها روی هم — با این امید
      که همان کاری را بکند که آدمی در برنامه‌ریزی او ریخته است چیزی بیشتر از خودفریبی نیست,
      بویژه زمانیکه میبینیم آدمی از ساخت یک هواپیما که ریسک زمین افتادن آن 0 باشد نیز ناتوان است.




      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      S ها را اشتباه گرفته اید. S حالت اول (شما) بی شک ایستا نیست، n بار تکرار خود احتمال را تغییر میدهند و هیچ گونه کنترلی روی آن همه اقدام نمیتوان اعمال کرد. اما تا زمانی که S صفر نیست این موضوع اهمیت ندارد.
      احتمال اینکه فردا خورشید در نیاید هم 0 نیست, ولی آیا این 0 نبودن اهمیت دارد؟




      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      تا جایی که من میدانم اکثر موارد در اثر خطای انسانی رخ داده اند و حتی خودروی خودران گوگل نیز تا کنون حادثه ای غیر عامل انسانی نداشته است.
      !!

      در ساخت ابرهوشواره خطای انسانی را هم درون بیاورید!



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      شما طوری وانمود میکنید گویا همین فردا قرار است AI یا نانوماشین واقعی بسازند! کسانی که این کار را خواهند کرد به افزونه های عصبی و هوش برتر مجهز خواهند بود و طراحانی که سرشان به تنشان میارزد همه حالات ممکن را پیشگویی خواهند کرد و موانع لازم را در برابر خطا قرار خواهند داد. اگر فرگشت چنگار و بیماری روانی را با سیستم هایی که میدانیم سرکوب میکند، چیزی که توسط طراحی هوشمندانه به وجود آمده چگونه راه خطا را در پیش خواهد گرفت؟

      یک نمونه از طراحی هوشمندانه که نزدیک به ≈٢٠٠ سال آدمی برای فرزافتن (perfect) آن زمان داشته است:








      .

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    2. یک کاربر برای این پست سودمند از Mehrbod گرامی سپاسگزاری کرده اند:

      Nilftrondheim (02-11-2016)

    3. #2
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      23
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      ساخت یک ابرهوشواره — با هوشی میلیون‌ها بار بیشتر از همه‌یِ آدمها روی هم — با این امید
      که همان کاری را بکند که آدمی در برنامه‌ریزی او ریخته است چیزی بیشتر از خودفریبی نیست,
      پست قبلی را ببینید.

      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      بویژه زمانیکه میبینیم آدمی از ساخت یک هواپیما که ریسک زمین افتادن آن 0 باشد نیز ناتوان است.
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      یک نمونه از طراحی هوشمندانه که نزدیک به ≈٢٠٠ سال آدمی برای فرزافتن (perfect) آن زمان داشته است:
      ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.
      I am a degenerate

    4. #3
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      پست قبلی را ببینید.


      ابتدا باید روشن کنید کدام یک از دو حالت در پست قبلی مد نظرتان است است. در ضمن هواپیما امن ترین وسیله نقلیه تاریخ بشر است.
      در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.

      اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی
      ١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترل‌کننده‌ای از پایه پیاده‌سازی نشده باشد.


      پس باری دیگر, اگر امن‌ترین وسیله‌یِ نقلیه‌یِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠%
      برسد, آنگاه بروشنی ساخت و کنترل ابرهوشواره‌ای که میلیارد‌ها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.




      پ.ن.
      --




      The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forum

      Professor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTube

      Recently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.

      1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.

      2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.


      Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?

      I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.

      Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    5. #4
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      23
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      در ساخت ابرهوشواره و در پرسمان تکینگی فندین (technological singularity), برآیند ِ قطعیت ٩٩.٩٩٩٩٩% یکسان است با برایند ِ قطعیت ٠.٠٠٠٠١%.اهمّیتی ندارد چه اندازه پژوهشگران به کنترل ابرهوشواره نزدیک شده باشند, تا زمانیکه این نزدیکی١٠٠% نباشد, فرجام آن یکسان است با زمانیکه هیچ گونه سازوکار کنترل‌کننده‌ای از پایه پیاده‌سازی نشده باشد.پس باری دیگر, اگر امن‌ترین وسیله‌یِ نقلیه‌یِ تاریخ بشر, پس از ٢٠٠≈ سال زمان برای بهکرد و پیشرفت, هنوز نتوانسته به قطعیتی هتّا نزدیک به ١٠٠% برسد, آنگاه بروشنی ساخت و کنترل ابرهوشواره‌ای که میلیارد‌ها میلیارد بار هوشمندتر از باهوشترین آدم زنده باشد, چیزی بجز خودفریبی نخواهد بود.پ.ن.--

      The Importance of getting it right the first time and a centralized economy - Science & Technology of the Future - FutureTimeline.forumProfessor Stephen Hawking, Theoretical Physicist - The Theory of Everything - YouTubeRecently Stephen Hawking gave a talk about AI (linked above) in which he emphasized the importance of "getting it right the first time" with regard to key technologies such as Artificial Intelligence, Synthetic Biology, and Nanotrchnology. He comes at this from the perspective of the story of intelligence as a story about information. However, in order to control information it cannot be free. It has to be contained somehow with security measures, restricted access, etc. First of all I would like to ask "Is this even possible?" If you look at the story from the vantage of a network of evolving information, then based on the billions of years of history that we have as evidence we should expect at least two things.1. Information entropy increases. There is no perfect closed system that can contain it indefinitely. Once it escapes it can replicate very rapidly.2. The diversity and variety of information should continue to increase. The increase in entropy of information seems to be closely related to what we call intelligence. To try to curtail the process of increasing information entropy is to squelch the very intelligence we wish to create.Secondly, in terms of a more pragmatic perspective. What political and economic systems would be necessary for a species to control these key technologies enough to ensure survival?I don't think it would be capitalism because for example the short term profit in creating autonomous weapons systems would generally seem to outstrip the potential existential threat it creates such as we are seeing with the global warming bullshit from industry and the possible ramifications of genetically modified foods. Hawking directly references the need to curtail the weaponization of autonomous systems.Wouldn't political and economic control have to become more centralized in order to control the spread of information regarding these key technologies in order to ensure survival?

      همنطور که گفتم باید ابتدا روشن کنید کدام دو حالت مد نظرتان است. یا اگر حالت های دیگری نیز ممکن است بیان کنید.
      I am a degenerate

    6. #5
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      تکلیف را روشن کنید، به کدام دلیل AI (و شاید nanotech) خطرناک میباشند؟ دو حالت زیر جمع پذیر نیستند!

      - میتوان آن ها را کنترل کرد و جهت داد. در این صورت به همان بحث benevolence برمیگردیم که باید اولین یا اولین ها "خوب ها" باشند تا پس از آن مشکلی پیش نیاید. فکر کنید پروژه منهتن را اول بار نازی ها یا شوروی اجرا میکردند چه میشد!!!

      .If it can be done, someone's gonna do it. Let's make sure they're the good guys

      - نمیتوان آن ها را کنترل کرد و جهت داد. اینها اساسا ناپایدار و غیر قابل پیش بینی هستند و هر گونه استفاده از آنها منجر به آخرالزمان میگردد. در اینجا دو چیز باید روشن شود:

      - آیا ناپایدار الزاما به معنی مخرب است؟
      از بحث محبوب روانپزشکی مثال بزنم. یک اسکیزوفرن نمیتواند قاتل زنجیره ای باشد. یک سایکوپت میتواند. حتی مخرب بودن نیز نیاز به پایداری و هدفمندی دارد.

      - آیا اسکای نت دم در ایستاده است؟ طوری از این تکنولوژی ها سخن میگویید گویا همین فردا اتفاق خواهد افتاد! ما هنوز نتوانسته ایم 302 نورون یک کرم را شبیه سازی کنیم، چطور انتظار دارید بشر چیزی در این حد پیچیده بسازد سپس نتواند آن را کنترل کند؟ هوش مصنوعی را 30 سال بعد دانشمندانی مجهز به Nootropics و Neural Augmentations خواهند ساخت، کسانی که تفاوت زیادی با آن ندارند!



      کدام خوبی؟ امید به زندگی 25 سال؟



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      همنطور که گفتم باید ابتدا روشن کنید کدام دو حالت مد نظرتان است. یا اگر حالت های دیگری نیز ممکن است بیان کنید.


      در ساخت ابرهوشواره‌ها:

      نمیتوان آنها را کنترل کرد

      پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانون‌هایِ
      آنتروپی, درست همانجور که جهش‌هایِ ژنتیکی همگی زیان‌آور میباشند مگر یک اندک‌شماری,
      ساخت ابرهوشواره‌ای که روشن نیست چه خواهد کرد کوچکترین خردپذیری‌ای در خود ندارد.





      آیا اسکای نت دم در ایستاده است؟
      نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟

      اگر اینجا گفتمانی دارد میشود ازینرو‌ست که بخت و زمان اندکی هنوز هست
      که از پیدایش این آینده جلوگیری بشود, اگر نه که همه‌یِ این گفتگو‌ها بیهوده خواهند بود.

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    7. #6
      نویسنده سوم
      Points: 4,243, Level: 41
      Level completed: 47%, Points required for next Level: 107
      Overall activity: 0%
      دستاوردها:
      First 1000 Experience Points
      Ignorance IS bliss
       
      ریلکس
       
      Nilftrondheim آواتار ها
      تاریخ هموندی
      May 2015
      سن
      23
      نوشته ها
      153
      جُستارها
      3
      امتیازها
      4,243
      رنک
      41
      Post Thanks / Like
      سپاس
      67
      از ایشان 75 بار در 55 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      2 Post(s)
      Tagged
      0 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Mehrbod نمایش پست ها
      در ساخت ابرهوشواره‌ها:
      نمیتوان آنها را کنترل کرد
      پیشبینی اینکه ابرسازواره چه میکند نیز شدنی نیست, ولی با نگاه به قانون‌هایِ آنتروپی, درست همانجور که جهش‌هایِ ژنتیکی همگی زیان‌آور میباشند مگر یک اندک‌شماری, ساخت ابرهوشواره‌ای که روشن نیست چه خواهد کرد کوچکترین خردپذیری‌ای در خود ندارد.نه, ولی آیا بایستی درست دست روی دست گذاشت و نشست تا مگر هنگامیکه دم در ایستاده بود؟اگر اینجا گفتمانی دارد میشود ازینرو‌ست که بخت و زمان اندکی هنوز هست که از پیدایش این آینده جلوگیری بشود, اگر نه که همه‌یِ این گفتگو‌ها بیهوده خواهند بود.
      مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now
      I am a degenerate

    8. #7
      دفترچه نویس
      Points: 471,639, Level: 100
      Level completed: 0%, Points required for next Level: 0
      Overall activity: 2.0%
      دستاوردها:
      First 1000 Experience PointsGot three Friends
      نِشان‌ها:
      Most Popular
      آغازگر جُستار
      سرور خویـشتـن
       
      Empty
       
      Mehrbod آواتار ها
      تاریخ هموندی
      Oct 2010
      ماندگاه
      لاجیکستان
      نوشته ها
      8,712
      جُستارها
      188
      امتیازها
      471,639
      رنک
      100
      Post Thanks / Like
      سپاس
      12,116
      از ایشان 21,650 بار در 7,581 پست سپاسگزاری شده است .
      یافتن همه‌یِ سپاسهای گرفته شده
      یافتن همه‌یِ سپاسهای داده شده
      Mentioned
      62 Post(s)
      Tagged
      1 Thread(s)
      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      مشکلی نیست، ابر هوشواره را در واقعیتی مجازی فعال کنید و ببینید چه میکند. آنی را که پایدار بود آزاد کنید. پروسه های "مغری" اش را مطالعه کنید. پیشگویان آخرالزمان از ساخت AI رسما به عنوان احضار شیطان یاد میکنند!در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!! وجود نداشت. در دنیای واقعی بمب اتمی 100 مگاتنی در ارتفاع 30 کیلومتری منفجر میکنند و نتیجه این میشود که Apocalypse not now
      ابرهوشواره هتّا اگر بتواند در جهانی سراسر مجازی هم فعّال شود (که خود یک اگر پر رنگ است) باز به احتمال بس
      یار بالا میتواند راه خود به بیرون را بگشاید. به این نکته برنگریسته شود که سخن از هوشی میلیارد‌ها میلیارد‌ بار فراتر از هوشمندترین آدم میرود.


      نکته‌یِ دیگر, راهکار اینجا همان بوی همیشگی "بکنند" را میدهد. خب بایستی اینجا
      پرسید, این راهکار چگونه در عمل به کار بسته خواهد شد و این بکنند را چه کسانی براستی خواهند "کرد"؟

      آیا از امروز به آنروز, تک تک دانشمندانی که در این زمینه سرگرم پژوهش میباشند به راهکاری که شما در این یک ساعت اینجا بدان دست یافته‌اید بی
      هیچگونه چون و چرایی, برای دهه‌های در پیش رو استناد خواهند نموده و به‌یکسان, همانگونه ابرهوشواره را درست خواهند کرد که شما بالاتر فرمودید؟





      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      در دنیای ترمیناتور جلوی اسکای نت گرفته میشد دیگر داستانی برای پنجگانه!!!
      فیلم ترمیناتور یک فیلم سرگرم‌کننده است و آماج ساخت آن نیز پول سازی
      برای سازندگانش بوده است, نه پرداختن به پرسمان سترگ تکنولوژی.




      ——



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      این همان چیزی است که من گفتم، تکنولوژی هایی که پتانسیل سو استفاده دارند غیر قابل اجتناب دموکراتیزه خواهند شد،
      و این فرایند دموکراتیزه شدن چگونه از سوء استفاده شدن آنها جلوگیری خواهد کرد؟



      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      در این صورت تنها نظارت و غیره هستند که نمیگذارند اوضاع از کنترل خارج شود. شما آزاد هستید، تا جایی که در راکتور اتمی شخصیتان بمب کثیف نسازید. انتظار زیادی است؟
      +


      گفت‌آورد نوشته اصلی از سوی Nilftrondheim نمایش پست ها
      هنوز هم منتظر توضیحتان در مورد ابزارهای کنترل مغز هستم.

      منتظر چه توضیحی هستید؟ آیا از صد‌ها هزاران پژوهشی که روزانه برای شناخت سازوکار مغز میشود, ده‌ها هزاران پژوهش
      و پژوهشگاه‌هایی که برای ساخت دستگاه‌هایِ BMI (Body Machine Interface) میکوشند, جستجوهای گوناگون و پرشماری که برای ساخت
      قرص‌هایِ هوشمند میشود, ابزارهایی که برای دستکاری احساس/mood ساخته میشوند و از بیشمار, بیشمار نمونه‌یِ دیگر کوچکترین آگاهی‌ای ندارید!؟




      --
      پس باری دیگر, اینجا بایستی از خود پرسید, آیا این "دموکراتیزه شدن" برای نمونه
      توانسته یا میتواند همین امروز از ساخت و پژوهش در زمینه ابزارهای کنترل مغزی جلوگیری نماید؟

      ما هتّا تراز را از این هم پایین‌تر آورده و میپرسیم, آیا با نزدیک به گذشت یک سده از نوآوری بمب اتم,
      آیا این فرایند دموکراتیزه شدن در تراز جهانی توانسته از ساخت بیشتر همین یک نمونه‌یِ
      جنگ‌افزارهای اتمی — که بی هیچ گمانی از آنها سوء استفاده میتواند بشود و شده — جلوگیری نماید؟








      .
      ویرایش از سوی Mehrbod : 02-18-2016 در ساعت 08:05 PM

      Sticky بجای وادادن در برابر واقعیت تلخ، بهتر است آدمی بكوشد كه واقعیت را بسود خود دگرگون كند و اگر بتواند حتی یك واژه ی تازی را هم از زبان شیرین مادری خود بیرون بیندازد بهتر از این است كه بگوید چه كنم ! ناراحتم! ولی همچنان در گنداب بماند و دیگران را هم به ماندن در گنداب گول بزند!!

      —مزدک بامداد


    داده‌های جُستار

    کاربری که سرگرم دیدن این جُستار هستند

    هم‌اکنون 1 کاربر سرگرم دیدن این جُستار است. (0 کاربر و 1 مهمان)

    جُستارهای همانند

    1. گزین‌گویه‌ها
      از سوی Theodor Herzl در تالار هماندیشی
      پاسخ: 691
      واپسین پیک: 05-11-2015, 03:20 PM
    2. پاسخ: 18
      واپسین پیک: 09-01-2012, 04:16 PM
    3. اندر نکات امنیتی در ساخت ویلاگ
      از سوی Russell در تالار رایانه، اینترنت، تلفن‌های همراه
      پاسخ: 12
      واپسین پیک: 01-09-2012, 01:11 PM
    4. سفری به پناهگاه جیمز باندی ویکی‌لیکس!
      از سوی Dariush Rahazad در تالار دانش و فندآوری
      پاسخ: 2
      واپسین پیک: 12-17-2010, 08:27 AM

    کلیدواژگان این جُستار

    مجوز های پیک و ویرایش

    • شما نمیتوانید جُستار نوی بفرستید
    • شما نمیتوانید پیکی بفرستید
    • شما نمیتوانید فایل پیوست کنید.
    • شما نمیتوانید پست های خود را ویرایش کنید
    •