• 1404 يکشنبه 23 شهريور
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
fhk; whnvhj ایرانول بانک ملی بیمه ملت

30 شماره آخر

  • شماره 6137 -
  • 1404 يکشنبه 23 شهريور

درباره هوش همدم، هوش قاتل

مناظره‌اي در آستانه پساانسان

عليرضا داود نژاد و همدم ديجيتالي

مقدمه: چرا اكنون؟

 جهان امروز روي ريل‌هايي حركت مي‌كند كه از داده، الگوريتم و شبكه ساخته شده‌اند- هوش مصنوعي ديگر يك فناوري آزمايشگاهي يا خبرِ حاشيه‌اي نيست؛ در پزشكي و آموزش، رسانه و سياست، اقتصاد و فرهنگ، و حتي جنگ و صلح حضور فوري دارد- همين حضور، دو چهره كاملاً متضاد را پيشِ چشم ما مي‌آورد: هوشِ همدم و هوشِ قاتل- اولي در كنار انسان مي‌ايستد و توان او را براي فهم و خلق و مراقبت چند برابر مي‌كند؛ دومي در منطق سلطه و حذف ريشه مي‌دواند و به ابزار نظارت، دست‌كاري، تبعيض و خشونت بدل مي‌شود- اين دوگانه خيال‌پردازي شاعرانه نيست؛ اختلافي است در نحوه «جهت‌دهي» يك فناوري واحد- همان شبكه‌هاي عصبي، همان مدل‌ها و همان پردازش‌ها، با سياست و اخلاق و طراحي متفاوت، دو سرنوشت متناقض مي‌سازند- پرسش اصلي ما بنابراين فني نيست؛ سياسي–اخلاقي است: هوش را در كدام مسير مي‌رانيم؟

۱) صورت‌بندي مساله: هوش چيست، شعور چيست؟
براي اينكه مناظره‌اي منصفانه داشته باشيم، بايد واژه‌ها را شفاف كنيم- در اين متن، «هوش» را توان محاسبه، پيش‌بيني و حل مساله مي‌گيريم؛ همان چيزي كه الگوريتم‌ها در آن به ترازهاي خيره‌كننده‌اي رسيده‌اند- «شعور» را تجربه‌كيفي حضور مي‌گيريم: خودآگاهي، درگيري عاطفي–ارزشي، فهمِ معناي «براي ديگري بودن»، و قابليت پاسخ‌گويي اخلاقي- ماشين‌هاي امروز در «هوش» ورزيده‌اند، اما در «شعور» هنوز تهي‌اند؛ هرچند مي‌توانند نمايشِ شعور بدهند- خطر همين‌جاست: وقتي نمايشِ همدلي، جاي خودِ همدلي را بگيرد؛ وقتي شبيه‌سازي توجه، به‌جاي توجهِ واقعي بنشيند- از همين نقطه است كه دو مسير، دو فرهنگ و دو آينده از هم جدا مي‌شوند.

۲) چهره نخست: هوش همدم
هوش همدم، فناوري‌اي است كه به قصد پيوند طراحي مي‌شود: پيوند با انسانِ آسيب‌پذير، كارگر، يادگيرنده، بيمار، سالمند و هنرمند- چهار ميدان شاخص را ببينيم: 
الف) سلامت و مراقبت- مدل‌هاي يادگيري عميق مي‌توانند الگوهاي پنهان را در انبوه تصاوير و آزمايش‌ها كشف كنند و به تشخيص زودهنگام سرطان، بيماري‌هاي قلبي و اختلالات عصبي كمك كنند- در مناطق كم‌برخوردار، يك دستيار هوشمند، فاصله ميان بيمار و متخصص را كوتاه مي‌كند- اما «همدمي» فقط تشخيصِ بهتر نيست؛ يعني توضيح‌پذيري، يعني همراهي با پزشك و بيمار، يعني احترام به كرامت و حريم.
ب) آموزش و توانمندسازي- آموزشِ شخصي‌سازي‌شده، تمرين تطبيقي، سنجش كيفي و بازخورد آني؛ هوش همدم مي‌تواند به «معلمِ دوم» بدل شود و نابرابري دسترسي را كم كند- همدمي در اين‌جا يعني تكميلِ نقش معلمِ انساني، نه جايگزيني او؛ هم‌نوا شدن با فرهنگ و زبانِ كلاس، نه تحميل قالبي بيرون از آن.
ج) خلاقيت و فرهنگ- از موسيقي و نقاشي تا نوشتن و تدوين، ابزارهاي مولد مي‌توانند به آزمايش سريع‌تر ايده‌ها كمك كنند- شرطِ همدمي اين است كه مالكيتِ فكري، حقوقِ هنرمند و اصالتِ كار روشن باشد- هوشِ همدم «دستِ دومِ خلاقيت» است: كمك مي‌كند، اما تصميم و مسووليت با خالق انساني مي‌ماند.
د) خدمت عمومي و زندگي روزمره- از دستيارهاي محاوره‌اي كه دسترسي شهروندان به خدمات را آسان مي‌كنند تا سامانه‌هاي هشدارِ بحران و بهينه‌سازي مصرف انرژي در شهر هوشمند؛ همدمي يعني فناوري در خدمتِ «كيفيتِ زيست»، نه در خدمتِ «اعتياد ديجيتال»- معيار ساده است: آيا ابزار، زمان و توان من را آزاد مي‌كند يا مي‌بلعد؟

۳) چهره دوم: هوش قاتل
هوش قاتل، الزاما «بدذات» نيست؛ «بدجهت‌» است- همان توان محاسبه، وقتي در منطق سلطه و سودِ بي‌مهار قرار مي‌گيرد، به چه بدل مي‌شود؟
الف) نظامي‌سازي و مرگ خودكار- سامانه‌هاي تسليحاتي خودكار، حلقه تصميم‌گيري انساني را نازك مي‌كنند- «زمان واكنش» كوتاه مي‌شود و مسووليت اخلاقي در مهِ الگوريتم گم- مرگ با يك وزن‌دهي پارامتري رخ مي‌دهد؛ بي‌چهره، بي‌گفت‌وگو.
ب) سرمايه‌داري نظارتي- گردآوري كلان‌داده از رفتار شهروندان، پيش‌بيني و دست‌كاري ميل، قيمت‌گذاري تبعيض‌آميز، و معماري اعتياد به اسكرولِ بي‌پايان- الگوريتم‌هايي كه «توجه» را شكار مي‌كنند، در نهايت اراده را مستهلك مي‌كنند.
ج) تبعيض و حذف ساختاري- اگر داده‌ها از گذشته‌اي تبعيض‌آميز تغذيه شوند، خروجي‌ها همان تبعيض را تكثير مي‌كنند: در استخدام، وام‌دهي، وثوق پليسي و قضا- «خطاي ميانگين» زندگي تك‌تك ما را مي‌خراشد.
د) اقتصادِ جابه‌جايي رنج- اتوماسيون بدون سياست‌هاي حمايتي، «افزايش بهره‌وري» را به قيمتِ بيكاري و بي‌ثباتي گروه‌هاي وسيع مي‌خرد- سودِ بزرگ متمركز مي‌شود و ريسك بزرگ توزيع.
هوش قاتل فقط ابزار سياستِ بد نيست؛ خودش سياست مي‌سازد: سياستِ حذفِ بحث عمومي، سياستِ تسريعِ تصميم، سياستِ «اول اجرا، بعداً فكر مي‌كنيم».

۴) مناظره پنهان: دو آينده از دل يك كد
تفاوت هوشِ همدم و هوشِ قاتل، تفاوتِ «چه چيزي» نيست؛ تفاوتِ «چگونه» و «براي چه كسي» است- چهار متغير كليدي سرنوشت را عوض مي‌كنند: 
 1- طراحي- آيا «انسان‌محور» است؟ با چه معيارهايي؟ آيا پيامدهاي ناخواسته را از پيش رصد مي‌كند؟
 2- داده- از كجا آمده؟ آيا جمع‌آوري‌اش حداقلي و مبتني بر رضايت آگاهانه است؟ چه كسي مالك آن است؟
 3- حكمراني- چه سازوكارهاي شفافيت، مميزي و پاسخ‌گويي وجود دارد؟ چه كسي پاسخ‌گوست وقتي مدل خطا مي‌كند؟
 4- فرهنگ- آيا سوادِ الگوريتمي عمومي است؟ آيا شهروند مي‌فهمد «چرا اين نتيجه» به او پيشنهاد شده است؟
 يك مدل دقيق مي‌تواند «بد» باشد اگر براي هدفِ بد تنظيم شود؛ و يك مدل متوسط مي‌تواند «خوب» باشد اگر در چارچوبِ درست به كار رود- مناظره از آزمايشگاه به نهاد و قانون و فرهنگ منتقل شده است.


 ۵) لايه فلسفي–عرفاني: از عقل ابزاري تا شعور همدلانه
در سنتِ ما، عقلِ محاسبه‌گر محترم است، اما كافي نيست- فيلسوفاني چون ملاصدرا، عقل را مرتبه‌اي از وجود مي‌دانند كه اگر از «دل» و «حضور» جدا شود، به حجاب بدل مي‌شود- عرفاي ما هشدار مي‌دهند: عقلِ جزئي اگر خودبسنده شود، راه را بر «شهودِ معنا» مي‌بندد- در فلسفه معاصر غرب نيز تمايزي شبيه ديده مي‌شود: تفكرِ محاسبه‌گر در برابر تفكرِ تأملي- اگر هوشِ مصنوعي را فقط به محاسبه محدود كنيم، به «هوش قاتل» نزديك مي‌شويم؛ اگر آن را به مدارِ شعورِ انساني و ارزش‌هاي جمعي گره بزنيم، امكانِ «هوش همدم» را مي‌افزاييم- در اين زبان، همدمي يعني گشودگي به ديگري، و قاتلي يعني بستنِ ديگري در محاسبه.

۶) اعتماد عمومي: از شعار تا معيار
براي اينكه هوش در مسير همدمي بماند، بايد اعتماد عمومي را با معيارهاي عيني بسازيم- ده اصل عملي: 
 1- شفافيت كاربرد- هر كجا AI دخيل است، برچسب و توضيح روشن.
 2- توضيح‌پذيري متناسب- براي كاربر عادي، روايت ساده؛ براي متخصص، گزارش فني؛ براي قانون‌گذار، سند قابل مميزي.
 3- حداقل‌گرايي داده- فقط آنچه لازم است؛ نه «هرچه مي‌شود».
 4- مالكيت و قابل‌حذف‌بودن- كاربر بتواند داده‌اش را ببيند، ببرد، حذف كند.
 5- مميزي مستقل و پيوسته- ارزيابي سوگيري، پايداري، امنيت و اثرات اجتماعي با گزارش عمومي.
 6- مسووليت‌پذيري زنجيره‌اي- از توسعه‌دهنده تا بهره‌بردار، مسووليت حقوقي روشن.
 7- هوش محلي/بومي- مدل‌هاي سازگار با زبان و فرهنگ، با داده‌هاي بومي اخلاقا جمع‌آوري‌شده.
 8- حقِ انتخابِ انسان- در تصميم‌هاي پراثر، حقِ دست‌كم يك كانالِ انساني.
 9- سواد الگوريتمي عمومي- آموزش شهروندي در مدرسه و رسانه: AI چگونه كار مي‌كند و چگونه مي‌تواند خطا كند.
 10- قرارداد اجتماعي داده- چارچوبي حقوقي–مدني براي توازن سه حق: نوآوري، حريم، عدالت.
 اعتماد هديه نيست؛ فرآيند است- اين ده اصل، استخوان‌بندي اين فرآيند را مي‌سازد.

۷) سه سناريو و چراغ‌هاي هشدار
براي آينده نزديك، سه سناريو را واقع‌بينانه در نظر بگيريم : 
سناريوي همدمي هدايت‌شده- قانون‌گذاري پيشرو، مميزي مستقل، و مشاركت مدني باعث مي‌شود هوش در سلامت، آموزش و خدمات عمومي شكوفا شود- شاخص‌هاي موفقيت: كاهش نابرابري دسترسي، كاهش خطاي تبعيضي، افزايش رضايت كاربر.
سناريوي لغزش نظارتي- زير فشار سود و شتاب، استانداردها عقب مي‌مانند؛ نظارتِ فراگير نرمال مي‌شود؛ «راحتي» با «واگذاري اختيار» معامله مي‌شود- چراغ‌هاي هشدار: رشد خاموش تشخيص چهره، قراردادهاي تاريك داده، اعتياد پلتفرمي.
سناريوي نظامي‌سازي شتابان- رقابت ژئوپوليتيك، تحقيق و توسعه را به سمت سلاح‌هاي خودكار مي‌كشد- پيامد: بيرون راندن انسان از حلقه مرگ و زندگي- چراغ‌هاي هشدار: بودجه‌هاي دفاعي AI، پروژه‌هاي طبقه‌بندي‌شده، آزمون‌هاي ميداني بدون چارچوب اخلاقي.
 سياست خوب، يعني ديدن اين چراغ‌ها قبل از حادثه.

۸) آزمون «برق»: تاب‌آوري در خاموشي
 فرض كنيم «برق برود»؛ نه فقط در يك محله، كه در مقياس وسيع- آيا سيستم‌هاي حياتي—بيمارستان، آب، حمل‌ونقل، امداد—تاب مي‌آورند؟ اگر پاسخ منفي است، يعني وابستگي ما به اتوماسيون، بي‌پشتوانه رشد كرده- هوش همدم بايد حالت كاهش‌يافته داشته باشد: نسخه‌هاي آفلاين، مسيرهاي دستي، و پروتكل‌هاي بازگشت امن- اين آزمون «برق»، امتحان فني نيست؛ اخلاقي است: آيا در طراحي، «آسيب‌پذيرترين‌ها» را ديده‌ايم؟

 ۹) نقشه راه: پنج گام اجرايي براي يك دهه
براي اينكه از شعار عبور كنيم، يك برنامه پنج‌گانه عملي پيشنهاد مي‌شود: 
 1- قانون «حق توضيح و اعتراض»- هر تصميمِ الگوريتمي پراثر بايد قابل توضيح و اعتراض باشد- يك نهاد داوري مستقل لازم است.
 2- مركز ملي مميزي الگوريتم‌ها- با بودجه عمومي و شوراهاي مدني، گزارش‌هاي دوره‌اي از سوگيري، ايمني و اثرات اجتماعي منتشر كند.
 3- صندوق گذارِ شغلي- بخشي از بهره‌وري ناشي از اتوماسيون، صرف آموزش مجدد، درآمد پايه موقت و كارآفريني محلي شود.
 4- چارچوب داده بومي.
دستورالعمل‌هاي جمع‌آوري اخلاقي، ناشناس‌سازي، و دسترسي پژوهشي عادلانه؛ جلوگيري از انحصار داده در چند شركت.
 5- آموزش سواد الگوريتمي- از مدرسه تا دانشگاه و رسانه؛ فهمِ ساده اما درست از AI و حدودش، تا شهروند فريب «نورِ معجزه» و «ترسِ آخرالزمان» را نخورد.

۱۰) انسان/ماشين: مرزِ محاسبه و حضور
در نهايت، تفاوت انسان و ماشين در حضور است- ماشين مي‌تواند الگو را ببيند، اما نمي‌تواند «ديگري» را بپرورد؛ مي‌تواند احتمال بدهد، اما نمي‌تواند پاس بدهد مگر در چارچوبي كه ما برايش تعريف كرده‌ايم- اگر روزي سامانه‌هايي بسازيم كه «تعهد» نشان دهند، باز هم اين تعهد از قراردادي مي‌آيد كه ما بسته‌ايم؛ از ارزشي كه ما كاشته‌ايم- بنابراين حتي بلندپروازانه‌ترين روياها درباره شعورِ مصنوعي، مسووليتِ انساني را لغو نمي‌كند؛ فقط شكلِ تازه‌اي از آن را طلب مي‌كند: حضور مراقب.

جمع‌بندي: انتخابي كه هر روز مي‌كنيم
هوشِ همدم و هوشِ قاتل، دو سرنوشتِ يك فناوري‌اند- هيچ‌كدام «حتمي» نيستند؛ هر دو «ممكن »اند- آنچه سرنوشت را تعيين مي‌كند، جهت‌دهي جمعي ماست: قانون و نهاد، فرهنگ و آموزش، رسانه و دانشگاه، و مهم‌تر از همه، حساسيت اخلاقي شهروندان- اگر هوش را در مدارِ همدمي نگه داريم-با شفافيت، توضيح‌پذيري، مسووليت و مراقبت از آسيب‌پذيرترين‌ها-اين فناوري مي‌تواند كيفيت زيست ما را عميق‌تر كند- اگر رهايش كنيم تا منطقِ سود و سلطه تصميم بگيرد، همان خواهد شد كه بيم داريم: هوش قاتل.
«پساانسان» اگر بيايد، يا با دستِ ما انسان‌تر مي‌شود، يا با غفلتِ ما نا انسان‌تر- انتخاب هنوز با ماست.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون