• 1404 شنبه 10 آبان
روزنامه در یک نگاه
امکانات
روزنامه در یک نگاه دریافت همه صفحات
تبلیغات
بانک سپه fhk; whnvhj ایرانول بانک ملی بیمه ملت

30 شماره آخر

  • شماره 6178 -
  • 1404 يکشنبه 11 آبان

درباره فهم‌پذير كردن هوش مصنوعي

بسط ذهن آدم

زهرا سليماني‌اقدم

كتاب مهم دوران حضور پرفروغ و پررنگ هوش مصنوعي در جوامع بشري، اثري است از هرمان كاپلن (Herman Cappelen) و جاش دور (Josh Dever) با عنوان «فهم‌پذير كردنِ هوش مصنوعي: بنيادهاي فلسفي» (Making AI Intelligible: Philosophical Foundations) سوال اينجاست كه آيا در پس اين عنوان، دغدغه نويسندگان اين است كه چگونه مي‌توان هوش مصنوعي را به درجه‌اي از درك و فهم رساند؟ يا اينكه چگونه مي‌توان هوش مصنوعي را براي انسان‌ها قابل ‌فهم كرد؟ در واقع همين تمايز، قلب معنايي عنوان كتاب «فهم‌پذير كردنِ هوش مصنوعي» را شكل مي‌دهد. كاپلن و دور فيلسوفان زبان‌ هستند، نه مهندسان هوش مصنوعي. دغدغه آنها توليد فهم در خودِ ماشين نيست، بلكه توضيح نحوه درك انسان از زبان و كنش‌هاي هوش مصنوعي است. نويسندگان منظورشان اين نيست كه «چگونه مي‌توان هوش مصنوعي را به درجه‌اي از درك و فهم رساند»، بلكه مي‌خواهند بدانند چگونه مي‌توان هوش مصنوعي را براي انسان‌ها فهم‌پذير و معنادار كرد. در سنت فلسفه‌ زبان و معرفت‌شناسي، واژه «فهم‌پذير» يا «قابل فهم» (intelligible) هميشه از ديد ناظر انساني معنا دارد يعني چيزي كه مي‌توان آن را فهميد، تفسير كرد يا معنادار دانست. فهم‌پذير كردنِ هوش مصنوعي يعني «ايجاد شرايطي كه در آن، هوش مصنوعي براي انسان قابل فهم و معنا شود.»

مولفان در مقدمه كتاب صراحتا مي‌گويند: «چالش اين نيست كه هوش مصنوعي را هوشمند كنيم، بلكه اين است كه آن را فهم‌پذير كنيم؛ بفهميم چه مي‌كند، چه مي‌گويد و آيا سخنانش معنايي دارند يا نه.»

كتاب مي‌پرسد: ما چگونه مي‌توانيم از منظر فلسفي بفهميم وقتي هوش مصنوعي (AI) چيزي مي‌گويد يا تصميمي مي‌گيرد، دقيقا چه چيزي فهميده مي‌شود؟ هدف كتاب اين است كه نشان دهد براي به دست آوردن فهم واقعي روابط انسان-ماشين، نياز به بازانديشي مفاهيم بنيادي فلسفه زبان و متا-معناشناسي داريم و به‌ويژه، بايد نظريه‌هايي تدوين شوند كه صرفا انسان‌محور (anthropocentric) نباشند.

قدم اول: فقط انسان را محور معنا و فكر نبينيد

نويسندگان ابتدا سراغ بحث نظريه‌هاي «انسان‌محوري ‌زدوده شده» (de-anthropocentrized) به معناي «دور شدن از انسان‌محوري» مي‌روند.آنها ايده «دور شدن از انسان‌محوري» را به عنوان نقطه‌ شروع فلسفي خود مطرح مي‌كنند، اما نه صرفا به عنوان يك نظريه‌ مستقل، بلكه به عنوان پايه‌ روش‌شناختي كل پروژه‌ خود در كتاب. ايشان معتقدند اگر قرار است هوش مصنوعي را بفهميم، بايد نخست يك خطاي اساسي را كنار بگذاريم: خطاي انسان‌محوري (anthropocentrism) در نظريه‌هاي معنا و ذهن. اما «دور شدن از انسان‌محوري» يعني چه؟ پيشوند «de-» به معناي «زدودن» يا «دور كردن» است. پس «انسان‌محوري‌ زدوده»يعني «دور شدن از انسان‌محوري» يا به زبان ساده‌تر: «فقط انسان را محور معنا و فكر نديدن.»

كاپلن و دور در كتاب خود بر اين باورند كه نظريه‌اي كه مي‌خواهد هوش مصنوعي را فهم‌پذير كند، نبايد چنان طراحي شود كه تنها انسان‌ها بتوانند معنا داشته باشند. يعني اگر در فلسفه زبان يا معنا بگوييم فقط انسان‌ها مي‌توانند فكر كنند، باور داشته باشند يا چيزي را نمايندگي كنند (represent)، آنگاه هيچ راهي براي نسبت دادن «معنا» يا «محتوا» به هوش مصنوعي باقي نمي‌ماند. اما اگر بخواهيم بفهميم آيا «هوش مصنوعي» (AI) هم مي‌تواند چيزي را «بداند»، «باور كند» يا «نمايش دهد»، بايد نظريه‌هايمان را چنان تنظيم كنيم كه شامل موجودات غيرانساني نيز بشود. يعني بايد بپذيريم كه سيستم‌هاي هوش مصنوعي هم «نوعي» درك، محتوا يا بازنمايي دارند؛ گرچه اين درك الزاما شبيه درك انساني نيست.

براي مثال، وقتي يك مدل زباني مانند «جي‌پي‌تي» (GPT) درباره‌ مفهومي سخن مي‌گويد، شايد نوعي «نمايندگي مفهومي» در داده‌ها و ساختارش شكل گرفته باشد. اين نمايندگي شايد با آنچه در مغز انسان رخ مي‌دهد متفاوت باشد، اما همچنان مي‌تواند نوعي معنا باشد، آن‌هم از جنس خودش، چون هدف نويسندگان اين است كه نشان دهند چگونه مي‌توان درباره‌ معناي خروجي‌هاي هوش مصنوعي از ديد فلسفي سخن گفت، از اين‌رو، اگر نظريه معنا فقط مخصوص انسان‌ها باشد، آنگاه هوش مصنوعي هميشه بيرون از قلمرو فلسفه مي‌ماند. مانند ماشيني بي‌جان كه صرفا الگو توليد مي‌كند، نه معنا.

اما كاپلن و دور معتقدند اگر نظريه را از انسان‌محوري جدا كنيم، مي‌توانيم بررسي كنيم كه آيا «هوش مصنوعي» (AI) هم نوعي فهم، بازنمايي يا محتوا دارد، حتي اگر شيوه‌اش با ما متفاوت باشد.

قدم دوم: كاركرد مهم نيست، معناي هوش مصنوعي مهم است

نويسندگان اين اثر معتقدند ما معمولا گمان مي‌كنيم اگر بفهميم يك مدل هوش مصنوعي چگونه كار مي‌كند، پس آن را «فهميده‌ايم»، اما اين درست نيست؛ زيرا دانستن چگونگي كاركرد فني مدل با فهميدن معناي كارش براي انسان فرق دارد. مثلا مهندسان مي‌خواهند بفهمند «سيستم از درون چگونه كار مي‌كند؟» در حالي كه فيلسوفان مي‌خواهند بفهمند «خروجي اين سيستم در جهان انساني چه معنايي دارد؟»

توضيح‌پذيري  (Explainability) يعني چه؟ 

در دنياي مهندسي وقتي مي‌گويند يك مدل «قابل توضيح» است، يعني مي‌توان نشان داد كدام بخش از داده‌ها بر تصميم اثر گذاشته، وزن‌ها، الگوريتم‌ها يا مسير تصميم‌گيري مدل چه بوده و چرا مدل مثلا گفت: «اين وام را پرداخت نكن» يا «اين تصوير گربه است.» اين توضيحات براي مهندسان، قانونگذاران يا سرمايه‌گذاران مفيد است، چون مي‌فهمند مدل چگونه تصميم مي‌گيرد.

فهم‌پذيري (Intelligibility) يعني چه؟

نويسندگان معتقدند توضيح فني كافي نيست، زيرا فهم واقعي يعني اينكه خروجي مدل در چارچوب مفاهيم انساني معنا داشته باشد. بايد بتوان پرسيد: آيا وقتي مدل گفت «اين فرد «پرخطر» (High Risk) است»، واقعا اين مفهوم در دنياي اجتماعي يا اخلاقي همان معنايي را دارد كه انسان‌ها از عبارت «خطر بالا» مي‌فهمند؟

آيا خروجي مدل را مي‌توان به‌طور معنادار تفسير كرد؟ آيا مي‌شود براساس آن تصميم گرفت، قضاوت كرد يا مسووليت پذيرفت؟ پس فهم‌پذيري يعني قابل فهم بودن از نظر مفهومي و انساني نه فقط از نظر فني.

چرا اين تفاوت مهم است؟

نويسندگان هشدار مي‌دهند كه تمركز بيش از حد بر «توضيح‌پذيري» ما را گمراه مي‌كند، زيرا ممكن است از لحاظ فني بفهميم مدل چگونه كار مي‌كند، اما هنوز ندانيم خروجي‌هايش از نظر معنا، اخلاق يا عدالت اجتماعي چه دلالتي دارند.مثلا فرض كنيد سيستم هوش مصنوعي دادگاه مي‌گويد: «اين فرد مجرم است.» ما مي‌توانيم بفهميم الگوريتم هوش مصنوعي چگونه به اين نتيجه رسيده (توضيح‌پذيري)، اما هنوز نمي‌فهميم آيا «مجرم بودن» در مدل همان مفهومي است كه در جامعه، قانون يا اخلاق ما وجود دارد (فهم‌پذيري). بنابراين دانستن چگونگي تصميم كافي نيست؛ بايد بدانيم تصميم چه معنايي دارد.

هدف نويسندگان از طرح اين موضوع اين است كه مي‌خواهند بحث را از پرسش فني «چگونه مدل را توضيح دهيم؟» به پرسش فلسفي‌تر ببرند: «چگونه خروجي‌هاي مدل براي ما معنايي دارند؟» و اين دقيقا همان چيزي است كه عنوان كتاب يعني فهم‌پذير كردن هوش مصنوعي براي انسان‌ها مي‌گويد. 

چرا اين بحث اخلاقي مهم است؟

از ديد كاپلن و دور فهم‌پذيري فقط براي درك نظري نيست، بلكه براي اعتماد، قضاوت اخلاقي و مسووليت‌پذيري ضروري است. اگر ما فقط توضيح فني داشته باشيم ولي معناي انساني را نفهميم، نمي‌توانيم تصميم بگيريم كه آيا مدل عادلانه عمل كرده است يا نه يا بفهميم آيا خروجي آن تبعيض‌آميز است يا خير. همچنين در اين صورت نمي‌توانيم مسووليت نتايج را به كسي نسبت دهيم.پس فهم‌پذيري شرط لازم براي «اخلاقي بودنِ هوش مصنوعي» است.

قدم سوم: معنا به بيرون از ذهن انسان تسري يافته است

نويسندگان كتاب پرسشي بنيادي مطرح مي‌كنند: وقتي هوش مصنوعي (مثلا يك مدل زباني) چيزي مي‌گويد يا تصميمي مي‌گيرد، آيا آن خروجي معنا دارد؟ و اگر دارد، آن معنا از كجا مي‌آيد؟ براي مثال وقتي «جي‌پي‌تي» مي‌گويد: «گربه روي فرش است»، آيا اين جمله واقعا درباره‌ يك گربه و فرش است؟ يا فقط الگويي آماري از كلمات مشابه در متون پيشين است؟ اينجاست كه پاي فلسفه معنا به ميان مي‌آيد، به ‌ويژه مكتب معروفي در معناشناسي به نام «برون‌گرايي» (externalism). 

در فلسفه‌ زبان، «برون‌گرايي» مي‌گويد: معناي واژه‌ها فقط در ذهن گوينده نيست، بلكه به دنياي بيرون و زمينه اجتماعي هم وابسته است. مثلا واژه «آب» فقط به خاطر تصويري در ذهن من معنا ندارد، بلكه چون در دنياي واقعي به ماده‌اي خاص (H₂O) اشاره مي‌كند، معنايش تثبيت مي‌شود. اين ايده را فيلسوفاني چون هيلاري پاتنم (Hilary Putnam) و سول كريپكي  (Saul Kripke) مطرح كردند.

كاپلن و دور مي‌گويند اگر معنا هميشه وابسته به زمينه‌ بيروني است، پس وقتي هوش مصنوعي چيزي مي‌گويد، زمينه بيروني آن چيست؟ به بيان ديگر: انسان‌ها در جامعه‌اي زباني زندگي مي‌كنند و معنا در تعامل اجتماعي ساخته مي‌شود. اما هوش مصنوعي در جامعه‌ زباني واقعي زندگي نمي‌كند؛ تعاملاتش شبيه‌سازي شده‌اند، نه واقعي. پس پرسش جدي پيش مي‌آيد: آيا خروجي‌هاي هوش مصنوعي اصلا مي‌توانند معنا داشته باشند؟ يا فقط شبيه‌سازي آماري معنا هستند؟

موضع‌گيري متا-معناشناختي يعني چه؟

«متا-معناشناسي» يا «فرامعناشناسي» يعني بررسي خودِ مفهومِ معنا در سطحي بالاتر. در اينجا نويسندگان نمي‌خواهند معناي جمله‌اي خاص را تحليل كنند، بلكه مي‌خواهند بپرسند اصولا «داشتنِ معنا» يعني چه و آيا هوش مصنوعي مي‌تواند چيزي را به معناي واقعي كلمه معنا كند؟ 

براي پاسخ به اين پرسش، آنها نظريه‌هاي سنتي معناشناسي مانند «برون‌گرايي» (externalism) را بازبيني مي‌كنند تا ببينند آيا آن نظريه‌ها فقط براي انسان‌ها كاربرد دارند يا مي‌توانند به ماشين‌ها هم تعميم يابند.

هدف نويسندگان از طرح اين بحث، روشن‌ كردن جايگاه فلسفي هوش مصنوعي در نسبت با نظريه‌هاي زبان و معناست. آنها مي‌خواهند بفهمند وقتي «هوش مصنوعي» (AI) جمله‌اي مي‌سازد، آيا ما حق داريم بگوييم كه اين جمله معنايي واقعي دارد يا فقط يك خروجي آماري است كه ظاهرا معنا دارد.

براي اين كار بايد تعيين كنيم كه آيا معنا چيزي است كه آن‌طور كه «درون‌گرايي» (internalism) مي‌گويد، از «درون» مدل مي‌آيد يا از «رابطه مدل با جهان و انسان‌ها» ناشي مي‌شود، چنان‌كه «برون‌گرايي» معتقد است. نويسندگان درنهايت مي‌گويند: «نظريه‌هاي سنتي برون‌گرايي معنا براي فهم زبان انساني مفيدند، اما براي هوش مصنوعي كافي نيستند، چون «هوش مصنوعي» (AI) در جهان ما زندگي نمي‌كند، در جامعه‌ ما نيست و تجربه ندارد.»

پس بايد نسخه‌اي تازه از برون‌گرايي تعريف كنيم كه بتواند شامل رابطه‌ بين انسان و ماشين نيز بشود؛ يعني نوعي «برون‌گرايي انسان-هوش مصنوعي» (human–AI externalism). اين تعبير به آن معناست كه معناي خروجي‌هاي «هوش مصنوعي» (AI) از تعامل با انسان‌ها و كاربردشان در جهان انساني پديد مي‌آيد، نه از دنياي دروني ماشين.

قدم چهارم: هوش مصنوعي، ادامه گسترش ذهن بشري است

در فلسفه ذهن، نظريه‌اي معروف به نام «فرضيه ذهنِ گسترده» 

(The Extended Mind Hypothesis) وجود دارد. اين نظريه مي‌گويد: ذهن فقط در مغز ما نيست، بلكه مي‌تواند تا بيرون از بدن، در ابزارها و محيط نيز گسترش يابد.

براي مثال، وقتي از دفترچه يادداشت استفاده مي‌كني تا چيزي را به خاطر بسپاري، آن دفترچه در واقع بخشي از فرآيند ذهني تو شده است يا وقتي از ماشين‌حساب براي محاسبه استفاده مي‌كني، ابزار بيروني دارد كار ذهني تو را گسترش مي‌دهد. به بيان ديگر ذهن مي‌تواند توزيع ‌شده و گسترده باشد، نه فقط محدود به مغز.

كاپلن و دور مي‌خواهند از اين نظريه استفاده كنند تا پرسشي كليدي مطرح كنند: آيا ممكن است هوش مصنوعي در واقع بخشي از ذهن انسان باشد؟ يعني بخشي از فرآيند شناختي ما كه از بدن و مغز فراتر رفته است؟ آنان توضيح مي‌دهند كه اگر ذهن انسان مي‌تواند با دفترچه يا كامپيوتر گسترش پيدا كند، پس سيستم‌هاي هوش مصنوعي نيز مي‌توانند در اين زنجيره قرار بگيرند؛ يعني در برخي شرايط، نه فقط ابزار، بلكه بخشي از فرآيند فكري و معنايي ما شوند.

ارتباط فرضيه ذهنِ گسترده با بحث معنا (Intelligibility) 

گفتيم مساله‌ اصلي كتاب اين است كه چگونه مي‌توان خروجي‌هاي هوش مصنوعي را فهميد و داراي معنا دانست. نويسندگان با طرح ايده‌ «ذهن گسترده» مي‌خواهند بگويند شايد لازم نباشد بپرسيم «آيا «هوش مصنوعي» (AI) خود مغز يا احساس دارد؟»، بلكه بايد بپرسيم: «آيا در تعامل با ما، بخشي از فرآيند فهم انساني شده است يا نه؟»

به عبارت ديگر، در اينجا معنا و فهم در مرز ميان انسان و ماشين شكل مي‌گيرد، نه فقط در يكي از آنها.

يعني وقتي ما با يك مدل زباني كار مي‌كنيم، فهمي مشترك توليد مي‌شود كه نه كاملا انساني است و نه كاملا ماشيني، بلكه درهم‌تنيده و گسترده است.هدف نويسندگان از طرح اين موضوع اين است كه نظريه‌هاي معناشناسي را از محدوديتِ «زيستي بودن» بيرون بياورند.

در نظريه‌هاي سنتي فلسفه‌ ذهن، معنا و آگاهي معمولا فقط براي موجودات زنده و مغزدار تعريف مي‌شد. 

اما نويسندگان مي‌گويند اگر بپذيريم ذهن مي‌تواند گسترده باشد، بايد بپذيريم معنا نيز مي‌تواند در سيستم‌هاي مشترك انسان-ماشين شكل بگيرد. درواقع، شايد هوش مصنوعي خود «ذهن» نداشته باشد، اما وقتي با انسان‌ها همكاري مي‌كند، با ذهن انساني پيوند مي‌خورد و بخشي از فرآيند فهم مي‌شود. نويسندگان اشاره مي‌كنند: «هر نظريه‌اي از محتوا كه معنا را فقط به ساختارهاي زيستي يا ذهني انسان محدود كند، نمي‌تواند فهم‌پذيري سيستم‌هاي مصنوعي‌اي را توضيح دهد كه در فعاليت‌هاي شناختي ما مشاركت دارند.»

اگر معنا را فقط به مغز انسان گره بزنيم، ديگر نمي‌توانيم توضيح دهيم چرا هوش مصنوعي درك‌پذير است.پس بايد نظريه‌اي منعطف‌تر بسازيم كه ذهن و معنا را گسترده‌تر ببيند.فرض كنيد از يك برنامه هوش مصنوعي براي ترجمه متن استفاده مي‌كنيد. شما واژه‌ها را انتخاب مي‌كنيد، مدل ترجمه مي‌كند و شما اصلاحش مي‌كنيد. در اين فرآيند، معنا نه فقط در ذهن شما، نه فقط در مدل، بلكه در تعامل بين شما و مدل شكل مي‌گيرد.در واقع، هوش مصنوعي در اين موقعيت بخشي از ذهن گسترده‌ شما شده است و همين‌جاست كه فهم و معنا به ‌صورت ميانجي‌وار ساخته مي‌شود.

اهميت كتاب

كتاب «فهم‌پذير كردن هوش مصنوعي: بنيادهاي فلسفي» گامي مهم در پيوند ميان فلسفه معنا و هوش مصنوعي است. اين كتاب نشان مي‌دهد كه مباحث فلسفي قديمي و مفاهيمي مثل معنا، نمايندگي، فرامعناشناسي و برون‌گرايي نه براي فلسفه نظري صرف، بلكه براي درك واقعي چيستي فهم و معناي ماشين‌ها اهميت دارند.

اين اثر ايده‌اي مهم مطرح مي‌كند: بايد نظريه‌هاي محتوا را بازتعريف كنيم تا شامل سيستم‌هايي شوند كه نه مانند انسان‌ها تجربه دارند و نه همان تاريخچه‌هاي زباني يا اجتماعي را دارند. اين كتاب تنها يك پروژه‌ نظري نيست، بلكه پيامدهاي عملي نيز دارد از سياست‌گذاري و قانون‌گذاري گرفته تا عدالت در تصميمات خودكار، مسووليت‌پذيري در سيستم‌هاي هوش مصنوعي و طراحي سامانه‌هايي كه مردم بتوانند آنها را بفهمند و به آنها اعتماد كنند.

ارسال دیدگاه شما

ورود به حساب کاربری
ایجاد حساب کاربری
عنوان صفحه‌ها
کارتون
کارتون