سه شنبه, ۱۸ اردیبهشت, ۱۴۰۳ / 7 May, 2024
مجله ویستا

آیندهٔ تکنولوژی


آیندهٔ تکنولوژی
ـ گفت‌وگوی ری سورس با ویلیام جوی
متن ذیل گفت و گویی است میان ری سورس از مجله انتقادی «وایرد» آمریکا با ویلیام جوی، دانشمند برجسته شرکت «سان مایکروسافت»، که در مورد تهدیدات تکنولوژی صورت گرفته است. جوی که تخصص و شغل سازمانی‏اش در شرکت فوق، پیش‌گویی اثرات تکنولوژیک است، از تحول عجیب و خطرناکی در این عرصه خبر می‏دهد که به گفته وی، بمب اتمی در مقایسه با آن، اصولاً خطر محسوب نمی‏شود؛ زیرا به کارگیری و عوارض این بمب را تا حدود زیادی می‏توان تحت کنترل درآورد، ولی تکنولوژی‏های برتری که وی از آنها سخن می‏گوید، خود تکثیر کننده‏اند و هیچ کنترلی را نمی‏توان بر آنها اعمال نمود. علاوه بر این، اطلاعات مربوط به آنها نیز می‏تواند به راحتی در دسترس همگان قرار گیرد و از این طریق، جامعه با خطر بزرگ‌تری مواجه می‏شود.
▪ ری سورس: شما که شاهد سرعت تحولات مهیج تکنولوژیکی بوده‌اید، آیا هیچ‌گاه از این سرعت شگفت‌ زده نیز شده‌اید؟ آیا بشریت می‌تواند مخلوقات خود را تحت کنترل درآورد و یا این اختراعات، به کنترل انسان بر خود پایان می‏دهند؟ از زمان انقلاب صنعتی، منتقدان این سؤال را مطرح ‏کرد‌ه‌اند؛ اما اخیراً خوانندگان مجله «وایرد» نگرانی‏هایی درباره اختراعاتی دارند که در آینده از یک منبع خیلی غیرقابل انتظار رخ می‏دهد و این منبع، یکی از جنبه‏های برجسته انقلاب دیجیتالی است، که ویلیام جوی از «سان مایکروسافت» در یکی از داستان‏های خود، آن را «چرا آینده به ما احتیاج ندارد» می‌خواند. ویلیام جوی اکنون با ماست. از ایشان می‏پرسیم؛ عنوان مذکور، انسان را بسیار برافروخته می‏کند؛ شما چه پیشنهادهای قابل اجرایی را برای مقابله با این وضعیت، به ما ارایه می‏دهید؟
ـ ویلیام جوی: بله، شغل من، آینده‏نگری برای شرکت «سان» است. ما در جست‌وجوی تکنولوژی‏هایی هستیم که در قرن ۲۱ ظهور می‏یابند؛ خصوصاً برخی از این تکنولوژی‏ها - مثل مهندسی ژنتیک، نانو تکنولوژی و علم روبات‏ها - پتانسیل بسیار زیادی دارند؛ اما به همراه این پتانسیل زیاد، یک خطر پنهانی را نیز با خود دارند، خطری که فکر نمی‏کنم ما تاکنون با آن مواجه بوده‏ایم و این موضوع، مرا بسیار نگران می‏کند و به همین خاطر، تصمیم گرفتم داستان مذکور را بنویسم.
▪ این اواخر، بسیاری از مردم احتمالاً در خبرها با اصطلاحاتی چون اصطلاحات ژنتیک یا مهندسی ژنتیک و به ویژه علم روبات‏ها برخورد کرده‏اند، اما نانوتکنولوژی دیگر چیست؟
ـ بله، درست همان‌طور که شما از طریق مهندسی ژنتیک می‏توانید ژنوم را دستکاری کنید، توالی و تسلسل علائم در DNA را هم، اگر بخواهید، می‏توانید وارد یک کامپیوتر کنید؛ مثل کاری که ما در خصوص پروژه ژنوم انسانی انجام دادیم؛ ما می‏توانیم به چیزی دسترسی پیدا کنیم که جدای از یک ماده و خارج از اتم‏ها، درست شود و نوعی از برنامه ساخت را برای آن به وجود آوریم و تصور کنیم که هر چیزی را می‏توان در مقیاس اتمی تولید کرد. به جای آنکه ما اشیا را به کناری بنهیم و یا آنها را به شکلی که خودمان می‏خواهیم دستکاری کنیم، می‏توانیم با اتم، آنها را به طریقی وارونه بسازیم و این روش، پتانسیل ساخت هر چیزی را با هزینه بسیار اندک دارد.
▪ خیلی‏ها در پاسخ به منتقدان تحولات سریع تکنولوژیکی گفته‏اند: «نگران نباشید، این ماشین‏ها، این فرآیندها، اساساً زبان بسته و بی‏خطر هستند. آنها نمی‏توانند خودشان اقدامی بکنند؛ آنها فقط می‏توانند کاری را انجام دهند که ما به آنها یاد می‏دهیم یا ما به آنها می‏گوییم که انجام دهند، پس چرا نگران باشیم؟»
ـ بله، ولی اوضاع در این مورد متفاوت است، من به طور کلّی فکر می‏کنم، کشف چیزهای جدید و این تکنولوژی‏های تازه، فواید بسیار زیادی دارند؛ ما دست به خلاقیت می‏زنیم و چیزهایی را اختراع می‏کنیم و بسیاری از مشکلات را حل می‏نماییم، اما شما تاکنون با تکنولوژی‏ نمی‏توانستید چیزهایی را اختراع نمایید که اگر در طبیعت رها شوند، قادر باشند نمونه‏های بیشتری مثل خود را کپی کنند، اما اکنون شما کلاً می‏توانید تغییر و اصلاح ویروس را مشاهده نمایید؛ یا یک ماشین کوچک نانو داشته باشید که اگر رها شود، می‏تواند از خود کپی‏های بیشتری را بسازد؛ و یا حتی گونه‏هایی از روبات‏ها را ایجاد نمایید که بتوانند (احتمالاً در چارچوب خاص خودشان) رشد نمایند و کامل شوند. این چیزها می‏توانند توسط اشخاصی اختراع شوند که به طور گسترده از کامپیوترهای قدرتمند استفاده می‏کنند و پس از آنکه این اختراعات در محیط رها می‏شوند، احتمالاً تغییرناپذیر می‏گردند. اگر رها شوند، احتمالاً غیرممکن است که بتوانیم آنها را از بین ببریم. مشکل است تصور کنیم، همان‌طور که از دست پشه‏ها می‏توانیم خلاص شویم، از دست آنها هم می‏توانیم خلاص شویم؛ پس ما با نوع خاصی از خطر مواجه هستیم. من فکر نمی‏کنم که حتی یک تهدید هسته‏ای هم این خطر را به همراه داشته باشد، زیرا یک بمب هسته‏ای از اورانیوم درست می‏شود و مشکل است که از دیگر مواد هم بتوان بمب اتم درست کرد. اگر شما یک بمب اتمی دارید، فقط یک‌بار می‏توانید آن را منفجر نمایید؛ اما، اگر چیزی را در طبیعت رها کردید و آن چیز بتواند تعداد زیادی مثل خودش را کپی کند، در این صورت، می‏تواند تبدیل به مشکلی شود که شما هرگز نتوانید از دست آن خلاص شوید.
▪ در برخی موارد - مانند آنچه که فیلم‏های علمی - تخیلی دهه پنجاه طرح می‏کردند - این ایده مطرح می‏شود که تکنولوژی یک بخش تاریک دارد. شما برای مقابله با این مشکل چه پیشنهادی دارید؟
ـ این مشکل بسیار بزرگی است. اگر شما اعتقاد داشته باشید که این تکنولوژی‏ها به طور گسترده قابل دسترسی خواهند بود و معتقد باشید که این تکنولوژی‏ها مثل یک کامپیوتر شخصی، در میان مردم جا باز خواهند کرد و هرکسی خواهد توانست به طرح‏های فوق، در کامپیوترهای شخصی خود دسترسی پیدا کند، این تحول، به طور غیرقابل باوری مخرب خواهد بود و در این صورت، من فکر می‏کنم که ما یک وضعیت بسیار خطرناکی را ایجاد کرده‏ایم. لذا، ما مجبوریم به طریقی مانع شویم که هر کسی بتواند توانایی ایجاد این نوع تکنولوژی را به‌دست آورد، تکنولوژی‏ای که قادر به انهدام جمعی در قرن بیست و یکم است. این چیزی است که دانشمندان و متخصصان تکنولوژی مجبور خواهند بود مسئولیت اخلاقی آن را به گردن گیرند. ما نمی‏توانیم چیزهایی را در طبیعت رها سازیم که کنترل آنها خارج از توان ما باشد و دارای یک چنین قدرت باورنکردنی باشند.
▪ اما برخی از نویسندگان، اخیراً درباره دانشی سخن گفته‏اند که تقریباً شبیه ویروس است؛ چیزی که شما نمی‏توانید آن را کنترل نمایید و یا با آن مقابله کنید. شنیدن این موضوع از شما، یعنی کسی که خود یک معمار تکنولوژی بوده و چیزهایی را به ما در جهان مدرن اهدا کرده، خیلی جالب است. اگر امکان دارد، در مورد کنترل و یا توانایی کنترل ما بر این نوع تکنولوژی‏ها بیشتر بگویید.
ـ بله، ما از یک جهت، اکنون در مسیری حرکت می‏کنیم که همه این دانش‏ها را توسعه می‏بخشد؛ دانشی که برای هر کسی قابل دسترسی خواهد بود؛ مردم ماشین‏ها و کامپیوترهای شخصی‌ای خواهند داشت که یک میلیون برابر قدرتمندتر از نوع امروزی خواهند بود؛ در این صورت، شما توالی و تسلسل DNA را خواهید داشت، که ما اکنون فقط داریم آن را می‏نویسیم و به ارزیابی آن می‏پردازیم. اما اگر این تکنولوژی این توانایی را به شما بدهد که بتوانید در صورت تمایل، بیماری خاص مورد نظرتان را ایجاد نمایید - و علت توانایی شما هم این است که نقشه کامل این بیماری را دارید - در این صورت، مقابله با آن، «مأموریت غیرممکن» خواهد بود. شما نقشه‏های هدف را دارید، درست است؟ شما همه چیز را هم درباره آن می‏دانید؛ حال اگر اجازه دهیم که هر کسی این اطلاعات را داشته باشد، در این صورت، انسان‏های دیوانه‏ای را هم در جهان خواهیم داشت که دست به هر کاری می‏زنند. آنچه که در طی قرن بیستم اتفاق افتاد این بود که ما از چیزهایی مثل سلاح‏های هسته‏ای وحشت داشتیم، در حالی که تنها یکی دو کشور آن‌قدر سلاح هسته‏ای داشتند که بتوانند تمدن بشری را نابود کنند. رها کردن بمب اتمی، خود به قدر کافی خطرناک هست؛ به همین خاطر، ما در آن موقع، حتی این تصور را به خود راه نداده بودیم که تکنولوژی‏های اتمی را به هرکسی بدهیم. در عصر اطلاعات، خود اطلاعات اساساً یک سلاح است؛ زیرا طراحی سلاح‏ها؛ یا ایجاد بیماری‏ها؛ یا اختراع نانو ماشین‏ها و یا روبات‌‌ها، هر کدام نرم‏افزار خود را دارد. بدین ترتیب، ما اکنون مشکل ارزیابی چگونگی کنترل اطلاعات را داریم، به طوری که دیگر نمی‏توانیم خودمان را در یک وضعیت بی‏طرفی احمقانه و یا دور از دسترس این سلاح‏های خطرناک قرار دهیم.
▪ بله؛ از یک طرف، پایان همه انتخاب‏ها این است که دست به کاری نزنیم و به هر کسی اجازه دهیم، درباره هر چیزی که می‏تواند، دانش کسب کند. منتهی نقطه مقابل آن هم این است که ترمز را تا آخر فشار دهیم، مگر اینکه مطمئن باشیم که کار درستی صورت خواهد گرفت.
ـ درست است.
▪ در این صورت، چطور ما به این فهم می‏رسیم که ارزیابی کنیم، راه درست را کجا باید انتخاب کرد؟
ـ من فکر می‏کنم، اولین چیزی که ما باید انجام دهیم این است که مجبور به این قضاوت شویم که از درست اقدام نکردن ما، چه خطری پیش می‏آید. افراد شایسته، این موضوع را مورد توجه قرار داده و گفته‌اند که دامنه خطر انقراض (نسل بشر) احتمالاً بین ۳۰ تا ۵۰% است و از نگاه من، این عددی است که مرا شوکه می‏کند. دسترسی به ورای آن، کاملاً غیرممکن است. من نمی‏دانم که آن چیست... و چطور می‏توان آن را توصیف کرد. از طرف دیگر، کاملاً بر ترمز پا گذاشتن، هرگز اتفاق نخواهد افتاد؛ و ابداً کمکی هم به حال ما نخواهد کرد. من فکر می‏کنم که علم در یک جامعه عمل می‏کند. جامعه علمی مجبور است بایستد و این موضوع را بپذیرد. از آن جا که ما در عصر اطلاعات قرار داریم، با نوع و طبیعت متفاوتی از تهدید مواجه هستیم و ما باید مسئولیت اخلاقی استفاده از ابزار و اطلاعات و دانشی را که تولید می‏کنیم، برعهده بگیریم. به عبارت دیگر، ما شریک جرم استفاده شرارت‏آمیز از آنها هستیم.
▪ آیا از شما انتقاد هم شده است و آیا واکنش‏های منفی هم درباره این پیشنهاد شما که ما باید نسبت به آینده قدم‏های احتیاط‌آمیزتری را برداریم، وجود داشته است؟
ـ جالب است که این واکنش‏ها اندک بوده است. بهترین چیز برای من این خواهد بود که کسی مقابلم قرار گیرد و به من بگوید که کاملاً اشتباه می‏کنم و دلیل آن را هم بگوید. اما، متأسفانه چنین چیزی اتفاق نیفتاده است. زیرا به نظر می‏رسد که این موضوع تبدیل به یک مشکل غامض شده است. من از برندگان نوبل نامه‏های الکترونیکی دریافت کرده‏ام و از اقشار مختلف مردم که مقالات وایرد را مطالعه می‏کنند، نامه‏هایی را دریافت کرده‏ام که در آن نامه‏ها شدیداً از من حمایت شده است و در برخی موارد هم این نامه‏ها باعث آغاز گفت‏وگوی فی ما بین گردیده است. اما صادقانه می‌گویم، براساس تجاربی که تاکنون داشتم، اگر بتوانیم درباره این موضوع گفت‏وگو کنیم، فکر می‏کنم که می‏توانیم این مباحثات را به سرعت به سمت انتخاب‏هایی که در نظر داریم سوق دهیم؛ زیرا به نظر نمی‏رسد که در این مورد چون و چرایی هم وجود داشته باشد. افرادی که نانو تکنولوژی را عرضه می‏کنند، آزادانه خطرات آن را هم می‏پذیرند. افرادی که علم روبات‌‌ها را پیشنهاد می‏کنند، آزادانه درباره خطرات آن هم گفت‏وگو می‏نمایند. علم ژنتیک هم همین‌طور است؛ ولی همة این تکنولوژی‏ها در این حقیقت شریکند که مبنای همه آنها اطلاعات است و اینکه مبنای طرح‏های آنها اساساً نرم‏افزار است. ابزاری که این چیزها را به وجود می‏آورند، دارند ارزان‏تر می‏شوند و همه این تکنولوژی‏ها توانایی کپی نمودن و توسعه خود را دارند. بنابراین، هر اقدام خودسرانه فردی می‏تواند زیان برگشت‏ناپذیری را ایجاد نماید.
▪ آیا ما به نقطه‏ای رسیده‏ایم که به طور قابل ملاحظه‏ای با یکی دو سال اخیر متفاوت باشد؟ آیا ما آنقدر سریع حرکت کرده‏ایم که اکنون در جایگاهی باشیم که تا دو سال پیش نمی‏توانست اتفاق بیفتد و اکنون شما مجبورید بدان بپردازید؟
ـ بله؛ عملاً من به بحث‏های ری کرزویل که یک کاشف مشهور است، کشیده شده‏ام. در یک کنفرانس، او درباره فکرهایی که در مورد روبات‌‌های هوشمند داشت با من صحبت کرد‌ و‌ گفت که ما این روبات‌‌ها را تا سال ۲۰۳۰ خواهیم داشت. او به من یک نسخه از کتاب در دست چاپ خود را داد و من این کتاب را خواندم و دیدم که وی در مورد تد کازینسکی یعنی همان «آن ابامر» اظهار نظر کرده است. کازینسکی هما‌نطور که می‏دانید یک بیمار روانی و جنایتکار است. اما وقتی من جمله خود کازینسکی را خواندم، نتوانستم باور کنم که این جملات متعلق به کازینسکی است و فکر می‏کنم که متعلق به خود کرزویل است؛ و البته این نمی‏توانست غیرعمدی باشد. بعداً یک فیزیکدان به من گفت که فکر می‏کند، علم نانوالکترونیک، شکلی از نانوتکنولوژی به خود می‏گیرد؛ علمی که قبلاً فکر نمی‏کردم به منصه ظهور برسد. در حقیقت، او دلایل ۱۰ سال قبل خود را که چرا فکر نمی‏کرد این علم شکل بگیرد، به من گفت.
ترکیب این دو چیز، مرا متقاعد کرد که به آنچه را که ری گفته بود، معتقد شوم؛ یعنی این موضوع که ما ماشین‏های هوشمند خواهیم داشت. سپس به عقب برگشتم و به تهدید نانو توجه کردم و به جایی که در علم ژنتیک هستیم، نگریستم؛ و یک الگوی مشترک را در قدرت انسان‏های خود تکثیرکننده مشاهده کردم. این دو فاکتور که در میان دیگر فاکتورها مشکل را بدتر می‏کند، آن‌قدر هراسناک هستند که احساس کردم، باید مقاله‏ای را راجع به آنها بنویسم و آن را برای مردم توضیح دهم. زیرا این مسأله، بی‏نهایت نگران کننده است.
▪ بیل جوی! از اینکه تا آخر با ما بودید، بسیار متشکرم.
ـ من هم لذت بردم.
محسن داوری
منبع: WWW.pbs.org/newshour