Professional Documents
Culture Documents
1
1
روش های استدالل منطقی و نمادین ب55ود .این رویکرده55ا م55وفقیت آم55یز بودن55د ،ام55ا فق55ط در فض55ای دامن55ه
بسیار محدود و با کاربرد عملی بسیار محدود .یک مث55ال معم55ولی ک55ه ی55ک سیس55تم خ55بره ب55ود ک55ه در Lisp
برای شناسایی باکتریهای ایجادکنن55ده عفونته55ای ش55دید و توص55یه آنتیبیوتیکه55ا توس55عه ی55افتMYCIN .
هرگز در روال بالینی استفاده نشد ،شاید ب5ه دلی5ل وی5ژگی مس5تقل آن و تالش زی5اد در پایگ5اه دانش خ5ود را
حف55ظ کن55د .ب55ا این ح55ال ،این سیس55تمهای ه55وش مص55نوعی اولی55ه ب55ا انج55ام ن55وعی اس55تنتاج منطقی اس55تدالل
میکردند.
نمادهای قابل خواندن توسط انسان و توانس55تند ردپ55ایی از مراح55ل اس55تنتاج خ55ود را ارائ55ه دهن55د .این مبن55ای
توضیح بود وبرخی از کاره55ای مرتب55ط اولی55ه وج55ود دارد ،ب55رای مث55ال( ،جانس55ون1994 ،؛ الک55او و دی55ز،
2002؛ سوارتوت ،پاریس ،و مور) .در اینجا الزم به ذکر است که سه نوع توضیح وجود دارد:
( )1تبیین همتا به همتا که انجام می شود.در میان پزشکان در طول گزارش پزشکی؛
( )2توضیح آموزشی همانطور که بین معلمان و دانش آموزان انجام می شود.
( )3توضیح علمی به معنای دقیق نظریه علم (پوپر .)1935 ،تاکید می کنیم که منظ5ور م5ا در این مقال5ه در
پزشکی تقاضای فزاینده ای برای رویکردهای هوش مصنوعی وجود دارد که نه تنها عملکرد خوبی دارند،
بلکه قابل اعتماد ،شفاف ،قابل تفسیر و قابل توضیح برای ی55ک متخص55ص انس55انی هس55تند .در پزش55کی ،ب55ه
عنوان مثال ،جمالت زبان طبیعی .روشها و مدلها برای بازسازی فرآیند تصمیمگیری ماشین ،بازتولید و
درک ه55ر دو فرآین55د ی55ادگیری و اس55تخراج دانش ض55روری هس55تند .این مهم اس55ت ،زی55را ب55رای حم55ایت از
تصمیم گیری ،درک علیت بازنمایی های آموخته شده ضروری است (گرشمن ،هورویتز ،و تننبام2015 ،؛
پرل2009 ،؛ پیترز ،یانزینگ ،و شولکوپف.)2017 ،
عالوه بر این ،توضیحپذیری هوش مصنوعی میتواند به افزایش اعتماد متخصصان پزشکی به سیس55تمهای
هوش مصنوعی آینده کمک کند .تحقیق برای ساختن سیستمهای هوش مصنوعی قابل توضیح برای کاربرد
در پزشکی مستلزم حفظ سطح باالیی از عملکرد یادگیری برای طیف وسیعی از تکنیکهای تعام55ل MLو
انسان و رایانه است .تنش ذاتی بین عملکرد ( MLدقت پیشبینیکننده) و قابلیت توضیح وجود دارد.
اغلب روشهایی که بهترین عملکرد را دارند مانند DLکمترین شفافیت را دارند و روشه55ایی ک55ه توض55یح
واضحی ارائه میدهند (به عنوان مثال ،درختهای تصمیم) دقت کمتری دارند (بولونیا و هایاشی.)2017 ،
در حال حاضر ،توضیحاتی در مورد اینکه چرا پیشبینیها انجام میشوند ،یا اینکه چگونه پارامترهای
مدل مکانیسمهای بیولوژیکی زیربنایی را به دست میآورند ،گریزان است .محدودیت دیگر این است که
انسان ها به ارزیابی بصری یا بررسی توضیحات برای تعداد (زیادی) بدیهیات محدود می شوند .این منجر
به یکی از سؤاالت اصلی می شود :آیا می توانیم ویژگی ها را بدون آزمایش -مستقیمًا از مشاهدات خالص
استنباط کنیم؟ (پیترز و همکاران.)2017 ،
درک ،تفسیر یا توضیح اغلب به صورت مترادف در زمینه هوش مصنوعی قابل توضیح استفاده می شود
(دوران ،شولز ،و بسولد ،)2017 ،و تکنیک های مختلف تفسیر در گذشته به کار رفته است .یک بحث
مفید در مورد "افسانه تفسیرپذیری مدل" توسط لیپتون ( )2016وجود دارد .در زمینه هوش مصنوعی
توضیح پذیر ،اصطالح "درک" معموًال به معنای درک عملکردی مدل است ،برخالف درک الگوریتمی
سطح پایین از آن ،یعنی تالش برای توصیف رفتار جعبه سیاه مدل ،بدون تالش برای عملکرد درونی یا
بازنمایی های درونی آن را روشن کند .مونتاون ،سامک و مولر ( )2017در کار خود بین تفسیر تفاوت
قائل می شوند که آن را به عنوان نگاشت یک مفهوم انتزاعی در حوزه ای تعریف می کنند که متخصص
انسانی می تواند درک و درک کند .و توضیح ،که آنها به عنوان مجموعهای از ویژگیهای حوزه
تفسیرپذیر تعریف میکنند که به یک مثال داده شده برای ایجاد یک تصمیم کمک کرده است.
ما استدالل می کنیم که در پزشکی ،هوش مصنوعی قابل توضیح برای بسیاری از اهداف از جمله آموزش
پزشکی ،تحقیقات و تصمیم گیری بالینی (هولزینگر .)2018 ،اگر متخصصان پزشکی با سیستم های
هوش مصنوعی پیشرفته تکمیل شوند و در در برخی موارد ،سیستمهای هوش مصنوعی آینده حتی نقش
مهمی در فرآیند تصمیمگیری ایفا میکنند ،متخصصان انسانی همچنان باید آن را داشته باشند.
به معنی درک و ردیابی مجدد فرآیند تصمیم گیری ماشین بر حسب تقاضا است .در عین حال ،جالب است
بدانید که در حالی که اغلب تصور می شود انسان ها همیشه قادر به توضیح تصمیمات خود هستند ،اغلب
اینطور نیست! گاهی کارشناسان قادر به ارائه توضیحی بر اساس ناهمگونی های مختلف نیستند و منابع
گسترده ای از اطالعات مختلف .در نتیجه ،هوش مصنوعی قابل توضیح نیازمند اعتماد ،ایمنی ،امنیت،
حریم خصوصی ،اخالق ،انصاف و اعتماد ( )2016و قابلیت استفاده ( )2005 ,و تعامل انسان و هوش
مصنوعی را به ارمغان می آورد .به یک تمرکز جدید و مهم همه این جنبه ها با هم برای کاربرد در آن
بسیار مهم هستند .پزشکی به طور کلی ،و برای پزشکی شخصی آینده ،به ویژه (هامبورگ و کالینز،
.)2010
در عین حال ،جالب است بدانید که در حالی که اغلب تصور می شود انسان ها همیشه قادر به توضیح
تصمیمات خود هستند ،اغلب اینطور نیست! گاهی کارشناسان قادر به ارائه توضیحی بر اساس ناهمگونی
های مختلف نیستند و منابع گسترده ای از اطالعات مختلف .در نتیجه ،هوش مصنوعی قابل توضیح
نیازمند اعتماد ،ایمنی ،امنیت ،حریم خصوصی ،اخالق ،انصاف و اعتماد و قابلیت استفاده و تعامل انسان
و هوش مصنوعی را به ارمغان می آورد .به یک تمرکز جدید و مهم .همه این جنبه ها با هم برای کاربرد
در آن بسیار مهم هستند
| 2از توضیح پذیری تا علیت
در یک دنیای ایده آل ،هر دو گزاره انسان و ماشین یکسان هستند ،و با حقیقت اصلی که برای ماشین ها و
انسان ها به طور یکسان تعریف می شود ،مطابقت دارند .اما در دنیای واقعی ما با دو مشکل روبرو
هستیم:
( )1حقیقت اصلی را نمی توان همیشه به خوبی تعریف کرد ،به ویژه در هنگام تشخیص پزشکی.
( )۲مدلهای انسانی (علمی) اغلب بر اساس علیت بهعنوان هدف نهایی برای درک مکانیسمهای زیربنایی
هستند ،و در حالی که همبستگی بهعنوان مبنایی برای تصمیمگیری پذیرفته میشود ،به عنوان یک مرحله
میانی در نظر گرفته میشود.
در مقابل ،الگوریتمهای موفق MLامروزی معموًال مبتنی بر مدلهای احتمالی هستند و تنها مبنای خامی
برای ایجاد مدلهای عّلی بیشتر فراهم میکنند .بنابراین هنگام بحث در مورد توضیح پذیری یک دستور
ماشین ،ما پیشنهاد می کنیم بین آنها تمایز قائل شویم.
توضیح پذیری
از لحاظ فنی ،بخشهای مرتبط با تصمیم را از نمایشهای استفادهشده از الگوریتمها و بخشه55ای فع55ال در
مدل الگوریتمی برجسته میکند ،که یا به دقت مدل در مجموعه آموزشی کمک میکند ،یا به ی55ک پیشبی55نی
خاص برای یک مشاهده خاص کمک میکند .به یک مدل آشکار انسانی اشاره نمی کند.
علیت
به عنوان میزانی که توضیح یک بیانیه برای یک متخصص انس55انی ب55ه س55طح مشخص55ی از درک عّلی ب55ا
اثربخشی ،کارایی و رضایت در زمینه استفاده مشخص میرسد.
از آنجایی که علیت بر حسب اثربخشی ،کارایی ،رضایت مرتب55ط ب55ا درک علی و ش55فافیت آن ب55رای ک55اربر
سنجیده میشود ،به یک مدل قاب55ل فهم انس55انی اش55اره دارد .این همیش55ه ب55رای توض55یح ی55ک گ55زاره انس55انی
ممکن است ،زیرا توضیح به خودی خود مربوط به یک مدل انسانی تعری55ف می ش55ود .ب55ا این ح55ال ،ب55رای
اندازهگیری علتپذیری توضیح یک دستور ماشین ،این باید بر اساس یک م55دل عّلی باش55د ،ک55ه ب55رای اک55ثر
الگوریتمهای MLصدق نمیکند ،یا باید یک نگاشت بین هر دو تعریف شود.
در اینجا ،ما باید بین یک مدل قابل توضیح ("هوش مصنوعی قاب55ل توض55یح") و ی55ک راب55ط توض55یحی ک55ه
باعث می شود تمایز قائل شویم.
نتایج به دست آمده در مدل قابل توضیح نه تنها قابل استفاده است ،بلکه برای متخصص نیز مفی55د اس55ت .ب55ه
عنوان معیاری برای قابلیت استفاده از چنین
رابط تعامل انسان و هوش مصنوعی ما پیشنهاد می کنیم از اصطالح علیت استفاده کنیم .
اصطالح هوش مصنوعی در واقع برای مهندسی تاسف بار اس55ت ،زی55را پدی55ده ه55وش بس55یار دش55وار اس55ت
تعریف می کند و به مجموعه ای از عوامل مختل55ف وابس55ته اس55ت .بن55ابراین ،م55ا در اینج55ا خ55ود را فق55ط ب55ه
حقایق صریح مرتبط محدود می کنیم.
توضیح پذیری
درک تنها شناخت ،درک و بازتولید نیست (محرک -پاسخ در سطح فیزیولوژیکی) و ن55ه تنه55ا درک محت55وا
و بازنمایی صرف از حقایق ،اما درک فک5ری از زمین5ه ای ک5ه در آن این حق5ایق ب5ه نظ5ر می رس5د .بلک5ه
درک را می توان پلی بین ادراک و استدالل دانست .از گ55رفتن زمین55ه ،ب55دون ب55دون ش55ک یکی از ش55اخص
های مهم هوش ،هوش مصنوعی پیشرفته فعلی هنوز مایل ها دورتر است .از سوی دیگر ،مردم هس55تند ب55ه
خوبی می تواند فورًا زمینه را به تصویر بکشد و تعمیم های بسیار خوبی را از نقاط داده بس5یار کمی انج5ام
دهد.
تبیین (تفسیر) به معنای ارائه علل پدیده های مشاهده شده ب55ه ش55یوه ای قاب55ل فهم از طری55ق توص55یف زب55انی
روابط منطقی و عّلی آن است .در نظریه علم ،بر اساس مدل فرضی -قیاسی کارل پوپر ،تبیین ه55ای عّلی،
شالوده علم هستند تا حقایق را از ق55وانین و ش55رایط ب55ه ص55ورت قیاس55ی اس55تخراج کنن55د .در نتیج55ه ،علیت و
استدالل علی یک حوزه بسیار مهم برای هوش مصنوعی قابل توضیح است .درک و توضیح پیش نیازه55ای
قابل ردیابی است .این سؤال همچنان باز است" :اصوًال چه چیزی برای یک انسان قابل درک است؟".
داده ها ،اشیا یا هر گونه نمایش گرافیکی ≤ R3به طور مستقیم قابل درک است ،بنابراین ب55رای انس55ان قاب55ل
توضیح اس5ت .مثال ،تص5اویر (آرایهه5ای پیکس5ل ،ح5روف ،تواب5ع همبس5تگی ،نموداره5ا ،پیشبینیه5ای دو
بعدی/سه بعدی و غیره ،یا متن (توالی زبان طبیعی).
انسان ها قادرند داده ها را به عنوان تصاویر یا کلمات درک کنند و آن ها را به عنوان اطالعات در مفه55وم
فیزیولوژیکی پردازش کنند ،اطالعات استخراج شده را به صورت شناختی ب5ا رج5وع ب5ه دانش ذه5نی قبلی
خود تفسیر کنند (انسان ها دانش قبلی زیادی دارند).
و ادغ55ام این دانش جدی55د در فض55ای دانش ش55ناختی خ55ود .ب55ه بی55ان دقی55ق ،بای55د بین درک تص55اویر ط55بیعی
(تصاویر) ،درک متن (نمادها) و درک زبان گفتاری تمایز قائل شد.
فضاهای برداری انتزاعی > R3به طور مستقیم قابل درک نیستند ،بنابراین برای انسان قابل توضیح نیستند
(به عنوان مثال ،جاسازی کلمات) یا بدون سند ،یعنی ویژگیهای ورودی قبًال ناشناخته (مانند دنبالههایی از
متن با نماده55ای ناش55ناخته (مانن55د ،چی55نی ب55رای ی55ک انگلیس55ی زب55ان) .ی55ک مث55ال آن را نش55ان می ده55د :در
اصطالح جاسازی کلمه ،کلمات و یا عبارات به بردارها اختصاص داده شده اند .از نظر مفهومی ،این یک
جاسازی ریاضی از یک فضا با یک است.
بعد در هر کلمه به یک فضای برداری پیوس55ته ب55ا بع55د ک55اهش یافت55ه اس55ت .روش ه55ای تولی55د چ55نین "نقش55ه
برداری" عبارتند از:
به عنوان مثال ،شبکه های عصبی عمیق و مدل های احتمالی با یک نمایش صریح در رابط5ه ب5ا زمین5ه ای
که در آن
کلمات ظاهر می شوند
برای جزئیات بیشتر در مورد نظریه پشت تبیین پذیری علمی ،به اصول استدالل ابداعی مراجعه می کنیم .
| 3رویکردهای کلی مدل های هوش مصنوعی قابل توضیح
ما میتوانیم دو نوع هوش مصنوعی قابل توضیح را متمایز کنیم که میتوان آنها را با نامهای التینی که در
قانون استفاده میشود ( )Fellmeth & Hor witz, 2009تش5خیص داد :توض55یحپذیری پسه5وایی = "(
).latبعد از این" ،که پس از رویداد مورد نظر اتفاق میافتد .برای مثال ،توضیح آنچ55ه ک55ه م55دل پیشبی55نی
میکند بر حسب آنچه که به راحتی قابل تفسیر است.
برای نشان دادن یک بردار برای نمایش قابل تفس55یر آن اس55تفاده می ش55ود (ب55ه عن55وان مث55ال x ،ممکن اس55ت
باشدیک بردار ویژگی حاوی جاسازی کلمه ،با xکیسه کلمات بودن) .هدف شناسایی یک م55دل قاب55ل تفس55یر
است.
بیش از نمایش قابل تفسیر که به صورت محلی به طبقه بندی کنن5ده وف55ادار اس5ت .م5دل توض55یحی g: Rd0
است.
Gکالسی از مدلهای بالقوه قابل تفسیر است ،مانند مدلهای خطی ،درختهای تصمیمگیری یا فهرستهای
قوانین .با توجه به مدل ،g 2 Gمی توان آن را به عنوان توضیحی برای متخصص انسانی تجسم کرد .
مثال دیگری برای یک سیس5تم پس از وق5وع ،توض5یح جعب5ه س5یاه از طری5ق تق5ریب ه5ای ش5فاف ()BETA
است ،یک چارچوب آگنوستیک مدل برای توضیح رفتار هر طبقه بندی کنن55ده جعب55ه س55یاه ب55ا بهین55ه س55ازی
همزمان برای وفاداری به
ب55اخ و همک55اران ( )2015ی55ک راه ح55ل کلی ب55رای مش55کل درک تص55میمات طبقهبن55دی ب55ا تجزی55ه پیکس55لی
طبقهبندیکنن55دههای غ55یرخطی ارائ55ه ک55رد ک55ه ب55ه تجس55م مش55ارکت پیکس55لهای منف55رد در پیشبینیه55ای
طبقهبندیکنندههای مبتنی بر هسته روی ویژگیهای کیسهای از کلمات و ب55رای ش55بکههای عص55بی چندالی55ه
اجازه میدهد.
سیستم های Ante-hocبا طراحی نسبت به رویکردهای جعبه شیشه ای قاب55ل تفس55یر هس55تند (ه55ولزینگر و
همکاران .)2018 ،2017 ،نمونه های معمولی عبارتند از رگرسیون خطی ،درخت تصمیم و سیستم ه55ای
استنتاج فازی .دومی دارای سنت طوالنی است و می تواند از دانش تخصصی یا از داده ها طراحی شود و
-از نقطه نظر تعامل انسان و هوش مصنوعی -چارچوب خوبی برای تعامل بین دانش متخص55ص انس55انی
و دانش پنهان در داده ها فراهم می کند ( .)Guillaume, 2001مثال دیگری توسط Caruanaو همکاران
ارائه شد ،)2015( .که در آن مدلهای افزایشی تعمیمیافته با کارایی باال با برهمکنشه55ای زوجی ()GAM
ب55رای مش55کالت ح55وزه پزش55کی اس55تفاده ش55د ک55ه م55دلهای قاب55ل فهمی را ارائ55ه میک55رد ،ک55ه الگوه55ای
ش55گفتانگیزی را در دادهه55ا آش55کار ک55رد ک55ه قبًال از ارائ55ه م55دلهای پیچی55ده آموخت55ه ش55ده در این ح55وزه
جلوگیری میکرد .مهم این است که آنها مقیاس پذیری چنین روش هایی را به مجموعه داده های بزرگی که
شامل صدها هزار بیمار و هزاران ویژگی است نشان دادند.
در حالی که قابل فهم باقی ماندند و دقت قاب55ل مقایس55ه ب55ا به55ترین روش ه55ای ( MLغ55یر قاب55ل درک) ارائ55ه
کردند .مث55ال دیگ55ری ب55رای روشه55ای ante-hocرا میت55وان در Poulinو همک55ارانش مش55اهده ک55رد( .
،)2006جایی که آنها چارچوبی را برای توضیح بصری تصمیمات هر طبقه بندی کننده ای ک55ه ب55ه عن55وان
یک مدل افزایشی فرموله شده است ،توصیف کردند و نحوه پیاده سازی این چارچوب را در زمینه سه مدل
نشان دادند :بیز ساده ،ماشین های بردار پشتیبان خطی و رگرسیون لجستیک ک5ه آنه5ا م5وفقیت را ب5ه ط5ور
کامل در یک برنامه بیوانفورماتیک پیاده سازی کردند (.)Szafron et al., 2004
| 3.1مثال :تفسیر یک شبکه عصبی عمیق
ش55بکههای عص55بی عمی55ق ( ،)DNNبهوی55ژه ش55بکههای عص55بی کانولوش55ن ( )CNNو ش55بکههای عص55بی
تکراری ( )RNNنشان داده شدهاند که برای طی55ف گس55تردهای از مش55کالت عملی ،از تش55خیص تص55ویر و
طبقهبن55دی تص55ویر ( )Estevaقاب55ل اس55تفاده هس55تند .و همک55اران )2017 ،ب55ه تش55خیص ح55رکت (س55ینگ و
همکاران .)2017 ،در عین ح55ال ،این رویکرده55ا از نقط55ه نظ55ر علمی ن55یز قاب55ل توج55ه هس55تند ،زی55را آنه55ا
فرآیندهای انسانی را منعکس می کنند .به عنوان مثال ،انسان ها ایده های خود را به صورت سلسله مراتبی
سازماندهی می کنند و کار اخیر شواهدی را در مورد اینکه چگونه مدل ه5ای آموخت5ه ش5ده در CNNش5بیه
مدل های موجود در مسیر شکمی بینایی انسان است ،مشاهده ش55ده اس55ت از مراح55ل اولی55ه تحقی55ق ب55ر روی
شبکه های عصبی مصنوعی ،مردم سعی کرده اند تا آنها را قابل توضیح کنند .یکی از رویکردهای اولی55ه،
رویکرد گرادیان ها در قالب تحلیل حساسیت بود.
ش55بکه عص55بی مص55نوعی ( )NNمجم55وعهای از نورونه55ا اس55ت ک55ه در ی55ک ت55والی از الیهه55ای متع55دد
سازماندهی شدهاند ،جایی که نورونها فعالسازیهای نورون را از الی55ه قبلی ب55ه عن55وان ورودی دری55افت
کرده و یک محاسبات ساده (مثًال مجموع وزنی از ورودی و به دنبال آن یک فعال سازی غیرخطی).
نورون های شبکه به طور مشترک یک نقشه برداری غیرخطی پیچیده را از ورودی به خروجی این نقش55ه
برداری از داده ها با تطبیق وزن هر نورون جداگان55ه ب55ا اس55تفاده از انتش55ار برگش55تی آموخت55ه می ش55ود ک55ه
بارها وزن اتصاالت در شبکه را تنظیم می کند تا اختالف را به حداقل برساند.
بین بردار خروجی جریان و بردار خروجی مورد نظر .به عنوان یک نتیج55ه از تنظیم55ات وزن ،واح55دهای
پنهان داخلی که بخشی از ورودی یا خروجی نیستند ،نشان دهنده ویژگیهای مهم ح55وزه وظیف55ه و نظمه55ای
موجود در آن هستند وظیفه توسط تعامالت این واحدها بدست می آید .
به طور معمول ،شبکه های عصبی عمیق با استفاده از یادگیری نظارت شده در مجموعه داده ه55ای ب55زرگ
و با دقت مشروح آموزش داده می شوند .با این حال ،نیاز به چنین مجموعههای دادهای فضای مشکالتی را
که میتوان به آنها رسیدگی کرد ،محدود میکند .از یک طرف ،این منجر به تکثیر نتایج یادگیری عمیق در
تکالیف یکسان با استفاده از مجموعه داده های شناخته شده یکسان شده است .از سوی دیگر ،ب5ه ارتب5اط در
حال ظهور رویکردهای ضعیف و بدون نظارت که هدفشان کاهش نیاز به حاشیهنویسی است.
چندین رویکرد برای بررسی و تفسیر شبکه های عصبی عمی55ق وج55ود دارد (کن55دال و گ55ال .)2017 ،ع55دم
قطعیت معیاری را ارائه می دهد که چگونه اغتشاشات کوچ55ک داده ه55ای آموزش55ی می توان55د پارامتره55ای
مدل را تغییر دهد ،به اصطالح عدم قطعیت مدل یا عدم قطعیت معرفتی ،یا اینکه چگونه تغی55یرات پ55ارامتر
ورودی بر پیش بینی یک مثال خاص ،عدم قطعیت پیش بینی کننده ،یا تغییرپذیری ناشناخته تأثیر می گذارد
( .)2016در یک رویکرد یادگیری عمیق بیزی )2017( ،پارامترهای مدل را از طریق روشهای متغ55یر
تقریبی میکنن5د ،ک5ه منج5ر ب5ه اطالع5ات ع5دم قطعیت وزن م5دل ،و اب5زاری ب5رای اس5تخراج ع5دم قطعیت
پیشبی55نی از خروجیه55ای م55دل میش55ود .ارائ55ه ع55دم قطعیت اس55تفاده مناس55ب از پیشبینیه55ای م55دل را در
سناریوهایی که منابع مختلف اطالعات با هم ترکیب میشوند ،بهطور معمول در پزشکی تسهیل میکند .م55ا
میت55وانیم ع55دم قطعیت را ب55ه ع55دم قطعیت هموس55داتیک مس55تقل از ی55ک ورودی خ55اص ،و ع55دم قطعیت
ناهمسانی که احتماًال با ورودیهای مختلف به سیستم تغییر میکند ،متمایز کنیم.
روشهای اسناد به دنبال پیوند دادن خروجی خاصی از شبکه عصبی عمیق ب55ه متغیره55ای ورودی هس55تند.
ساندارراجان ،تالی ،و یان ( )2017شیب های خروجی را هنگام تغییر متغیره55ای ورودی ف55ردی تجزی55ه و
تحلیل می کنند .به یک معنا ،این عدم قطعیت پیشبینی را به اجزای یک ورودی چند متغیره بازمیگردان55د(
.)2016
از نقشه های فعال سازی برای شناسایی بخش ه55ایی از تص55اویر مرب55وط ب55ه پیش بی55نی ش55بکه اس55تفاده می
کنند .رویکردهای اسنادی اخیر برای مولد مدل هایی معرفی شده است )2017( .نشان می دهند که چگون55ه
مناطق تصویری مخصوص کالس پیش زمینه درهستند که می توانند شناسایی و در داده ه55ا روش55ن ش55وند.
بیفی و همک55اران ( )2018وی55ژگی ه55ای قاب55ل تفس55یر را ب55رای رمزگ55ذارهای خودک55ار متغ55یر ب55ا ی55ادگیری
گرادیان در فضای نهفته تعبیه شده که آن را به نتیجه طبقه بندی مرتبط می کند.
حداکثر سازی فعال سازی (مونتاون و همکاران )2017 ،الگوهای ورودی را شناسایی می کند که منجر به
حداکثر فعال سازی مربوط به کالس های خاص در الی55ه خ55روجی می ش55ود (ب55رکس و ویس55کوت2006 ،؛
سیمونیان و زیسرمن .)2014 ،این امر تجسم نمونههای ح55رفهای کالسه55ا را ممکن میس55ازد ،و ارزی55ابی
میکند که مدل چه ویژگیهایی را ب55رای کالسه55ای 1میگ55یرد ( وینس55نت .)2009 ،ب55رای طبقهبندیکنن55ده
شبکه عصبی که نقاط داده xرا به مجموعهای از کالسها نگاشت میکند ،این رویک55رد ب55ه ش55دت مش55خص
میکند.
مناطق احتمالی در فضای ورودی ،که احتمال خروجی باالیی را برای یک کالس خاص ایجاد می کند .این
موقعیت ها را می توان توسط معرفی یک مدل چگالی داده در تابع هدف استاندارد logp (ωc | x) – λ k
xk2که در طول مدل به حداکثر می رسد
آموزش .به جای تنظیم کننده ℓ 2-normکه اولویتی را برای ورودی های نزدیک به مبدا اعم55ال می کن55د،
چگالی مدل یا "متخصص" (مونتاون و همکاران )2017 ،عبارت ) logp(ωc| x) + logp(xرا به دست
میدهد که باید حداکثر شود .در اینجا ،نوع پروتو تشویق میشود تا ب55ه ط55ور همزم55ان پاس55خ کالس ق55وی و
شبیه دادهها را تولید کند .با اعمال قانون بیز ،ه55دف جدی55د تعری55ف ش55ده را می ت55وان ت55ا ح55د خطاه55ای م55دل
سازی و یک عبارت ثابت به عنوان چگالی داده های شرطی کالس شناسایی کرد.
) .p(x| ωcبنابراین نمونه اولیه آموخته شده با محتمل ترین ورودی xبرای کالس ωcمطابقت دارد .
یک انتخاب احتمالی برای متخصص یک ماشین بولتزمن محدود شده گاوسی ( )RBMاست RBM .یک دو
الیه و دو بخشی است ،مدل گرافیکی بدون جهت با مجموعه ای از واحدهای پنهان باینری ) ،p(hمجموعه
ای از واحدهای قابل مشاهده (دودویی یا با ارزش واقعی)
) ،p(vبا اتصاالت متقارن بین دو الیه که با ماتریس وزنی Wنشان داده شده است .احتماالت معناشناس55ی
برای یک RBMاست با تابع انرژی آن تعری5ف می ش5ود (ب5رای جزئی5ات بیش5تر ب5ه فص5ل هینت5ون 2012
مراجعه
کنی5555د).
تابع احتمال آن را می توان به صورت زیر نوشت:
فاکتورهایی با پارامترهایی هستند که از داده ها .هنگام تفسیر مفاهیم پیچی5ده ت5ر مانن5د کالس ه5ای تص55اویر
طبیعی ،مدل های چگالی دیگر مانند کانولوشن یا پیکسل مناسب هستند.
انتخاب به اصطالح متخصص ) p(xنقش مهمی ایف5ا می کن5د .اساسً5ا چه5ار ح5الت مختل5ف وج5ود دارد :در
مورد در جایی که "متخصص" وجود ندارد ،یعنی مسئله بهینه سازی به حداکثر ک55ردن ت55ابع احتم55ال کالس
pکاهش می یابد.
| 3.2نمونه مورد استفاده هیستوپاتولوژی
این بخش پیچیدگی توضیحات یک آسیب شناس انسانی را نش55ان می ده55د .ب55رای تش55خیص زی55ر م55ا از ی55ک
آسیب شناس باتجربه خواستیم تا آنچه را که در اسالیدهای بافت شناسی مرتبط می داند توض55یح ده55د .بخش
بسیار کوچکی از بخش های بافت شناسی در ش55کل 3ب55ه عن55وان تص55ویر نش55ان داده ش55ده اس55ت .ب55رای این
تشخیص خاص ،آسیب شناس حقایق زیر را به عنوان توضیح پس از مرگ ارائه کرد • :بیوپسی کبد با 10
میدان پورتال قابل ارزیابی • .معماری لوبول حف55ظ ش55ده اس55ت • .س55لول ه55ای کب55دی در ص55فحات منظم ب55ه
ضخامت یک الیه سلولی مرتب شده اند.
• زمینه های پورتال کمی گشاد شده و کمی فیبروتیک • .سپتوم پورتو پورتال و پورتو مرکزی ناقص جدا
شده • .زمینه های پورتال کمی ملتهب ب55ا س55لول ه55ای مختل55ط (لنفوس55یت ه55ا ،گرانولوس55یت ه55ای نوتروفی55ل
پراکنده) ملتهب التهابی .التهاب محدود به میدان پورتال است • .صفحه مرزی پارانش55یمات دس55ت نخ55ورده،
سلول های کبدی با آنیزوکاریوز کم ،کبد چرب با قطرات نسبتًا بزرگ (تخریب چ55ربی پارانش55یم تخمین زده
شده در 30درصد از ناحیه پارانشیم) • .سلول های کبدی مرکزی لوبوالر بالون ش55ده ،سیتوپالس55می س55بک
با ادغام اجسام مالوری-دنک • .بیشتر این سلول های کبدی توسط گرانولوسیت های نوتروفی5ل احاط5ه ش5ده
اند و برخی از آنها در هم قرار گرفته اند (ماهواره) • .فیبروز مینور پریوانوالر (= اسکلروز مرک55زی)• .
سلول های کوپفر اندکی افزایش یافته و ندول های سلول کوپفر جدا شده قابل تشخیص است • .در رنگ آبی
برلینر سیدروزیس پارانشیماتوز مینور و سلول کوپفر.
| 3.2.2مثالی برای س55اختار پیش از انج55ام توض55یحات م55ا همچ55نین از پاتولوژیس55ت خواس55تیم ک55ه فرآین55د و
مفاهیم مرتبط در آسیب شناسی کبد را توضیح دهد .لطفًا توجه داشته باشید که توضیحات زیر فق55ط س55اختار
و پیچیدگی را نشان میدهد و از کت55اب درس55ی آس55یب شناس55ی کب55د بس55یار دور اس55ت .پاتولوژیس55ت روش و
مش55اهدات زی55ر را بهعن55وان توض55یحی پیشت55ر ب55رای آسیبشناس55ی کب55د توص55یف ک55رد • :در ارزی55ابی
ماکروسکوپی بخش بافتشناسی ویژگیه5ای زی5ر را ش5رح دهی5د - :ن5وع ،تع5داد و ان5دازه نمونهه5ا (نمون5ه
جراحی یا بیوپسی) -پیوستگی بافتی بیوپسی -کیفیت رنگآمیزی (H & E/CAB/Sirius red/iron/ev.
،PASایمونوهیستوش55یمی) -ب55افت خ55ارجی (توم55ور) از قب55ل قاب55ل مش55اهده اس55ت .احس55اس فی55بروز ی55ا
نکروز/تخریب شده در زمینه سیروز یا تومور -تعداد میدان های پورتال قاب5ل ارزی5ابی (بهین5ه 15-10در
هر اسالید) -سلول های کبدی (هپاتوسیت) صفحات منظم -ی55ک الی55ه س55لولی ض55خیم /چن55دین الی55ه س55لولی
ضخیم
-تغییرات التهابی پورتال/لوبوالر/ترکیبی؛ نکروز لوبوالر محیطی/لوبوالر مرکزی)
-وجود یا عدم وجود بافت
-در ارزیابی میکروسکوپی با بزرگنمایی بیشتر ویژگی های زیر را شرح دهید:
– مجاری پورتال :منظم/متوسع/فیبروتیک/گرد/ادماتوز
-حاشیه پارانشیم بافت همبند :تیز/غیر تیز
-صفحه مرزی پارانشیمی :حفظ شده/تا حدی تخریب شده/بیشتر تخریب شده/درگاه نفوذه5ای الته5ابی وج5ود
ندارد-/
رابط اطراف پورتال ،پراکنده /تنگ /فولیک55والر موض55عی /لنفوس55یتی /لنفوهیستیوس55یتیک /نوتروفی55ل -
گرانولوسیتی /ائوزینو فیل گرانولوسیتی /گرانولوماتوز.
-محتوای غیر طبیعی میدان پورتال وجود ندارد (سلول های تومور/جسم خارجی/انگل)
-عروق پورتال (شریان هپاتیکا ،ورید درگاهی و عروق لنفاوی) موجود/بسط یافته /تنگ شده/التهاب؛
– مجاری صفراوی :موجود/کشیده/غایب/اپیتلیوم تک الیه/اپیتلیوم چندالیه/اپیتلیوم پلی مورفیک/التهاب
تغییرات/تا حدی تخریب شده/اسکار/محتوا (ترومبوز صفراوی/پورفیرینترومبوس)؛
-واکنش مجرای غایب/کم/تلفظ/کلستاز مجاری.
-لوب5555ول ه5555ا (لوبول5555وس ،پارانش5555یم کب5555د) :س5555لول ه5555ای کب5555دی ب5555زرگ/ب5555الونیزه ش5555ده/کوچ5555ک
آتروفیک/آنیزوسیتوز/آپوپتوز
سیتوپالسم :گرانول/شبکه/سبک سیتوپالسمی -غنی از گلیکوژن/همگن منتشر/همگن شده کانونی
انکلوزیون سیتوپالسمی چربی قطره بزرگ /چربی قطره کوچک /گرانول لیپوفوسین /گرانول سیدرین /
آخال / AATفیبرینوژن
اجزاء /اجسام مالوری دنک ( ،)MDBاجسام هیالین /بیلی روبین
-بیلی روبینوستاز کانالی
-نکروزهای منتشر/همراه/لوبوالر مرکزی/محیط لوبوالر/پلی پورتو مرکزی/پلی مرکزی مرکزی/انبوه.
-هسته سلول های کبدی آنیسوکاریوز /پیکنوز /پانچ هسته " /هسته های شنی" /آخال های هسته.
-سلول های کوپفر به طور کانونی افزایش یافته (ندوالر) /انتشار افزایش یافته /بزرگ شده /انکلوزی55ون
(سیدرین ،رنگدانه ،گلبول های قرمز ،پاتوژن،
مواد خارجی)؛
-سلول های ستاره ای (سلول های ستاره ای) افزایش یافت
-محتوای گشاد شده/غیر طبیعی سینوسی (مانند خون ،فیبرین و سلول های تومور)
-لومن ورید مرکزی باز /باریک /محو /ملتهب /فیبروز دیواره.
– فیبروز :پورتال /پری سینوسوئیدی /دور س55لولی /اط55راف وری55دی /س55پتال /پورت55و پورت55ال /پورت55و
مرکزی /مرکز مرکزی /فیبروز سیم مشبک /سیروز ناقص /سیروز.
-بافت خارجی (بافت توموری که باید از نظر مورفولوژیکی مشخص ش55ود ،اولی55ه /ثانوی55ه -متاس55تاتیک /
نامشخص).
برای ی55ک م55ورد خ55اص ،مق5ادیر تم55ام ویژگیه55ای ف55وق ب55ه تش55خیص ب55ا وزنه55ای مختل55ف و رواب55ط علی
ارائهشده در مدل انسانی آسیبشناسی کبد کمک میکند ،که متخصص با آم55وزش و تجرب55ه ب55ه دس55ت آورده
است.
| 4چشم انداز آینده
| 4.1یادگیری با نظارت ضعیف
یادگیری تحت نظارت در حوزه پزشکی بسیار پرهزینه است زیرا دریافت اطالعات نظارت ق55وی و دس55ت
و پا گیر است .برچسب های حقیقت کامًال زمینی به ویژه ،برچسب زدن یک تص55ویر هیس5توپاتولوژیک ن5ه
تنها وقت گیر است ،بلکه یک کار حیاتی برای تشخیص سرطان ،زیرا از نظ55ر ب55الینی مهم اس55ت ک55ه ب55افت
های سرطانی را تقسیم بندی کنیم و آنها را به کالس های مختلف دسته بندی کنیم.
تصاویر پاتولوژیک دیجیتال به ط5ور کلی دارای مس5ائلی هس5تند ک5ه بای5د در نظ5ر گرفت5ه ش5وند ،از جمل5ه
اندازه تصویر بسیار بزرگ (و مشکالت مربوط به ،)DLتصاویر ب5ا برچس5ب ناک5افی (داده ه5ای آموزش5ی
کوچک موجود) ،زمان مورد نیاز از پاتولوژیس55ت (برچس55ب گ55ذاری گ55ران قیمت) ،برچس55ب ه55ای ناک55افی
(منطقه مورد عالق5ه) ،س5طوح مختل5ف بزرگنم5ایی (در نتیج5ه متف5اوت س5طوح اطالع5ات) ،تن5وع رن5گ و
مص55نوعات (ب55رش خ55ورده و ق55رار داده ش55ده روی اس55الیدهای شیش55ه ای) و غ55یره (کوم55ورا و ایش55یکاوا،
.)2018
در زمینه یادگیری با نظارت ضعیف ،ما طبقه بندی تصاویر کل اسالید را بر اس55اس امتی55ازدهی پرک55اربرد
پیشنهاد می کنیم.
سیستمهایی مبتنی بر ارتب55اط ب55ا ویژگیه55ای هیس55تومورفولوژیکی و ی55ک امتی55از پیشبی55نی کلی ،و بهعالوه
ارائه یک نقشه مرتبط با مشاهده متخصص انس55انی در حین تش55خیص .ب55ا ترکی55بی از مع55روف ویژگیه55ای
انسانی و طبقهبندیکنندههای ریختشناختی چن55د مقیاس55ی جدی55د ،م55دل علی انس55انی را میت55وان از ی55ک س55و
گسترش داد و از سوی دیگ55ر م55دل CNNرا می ت55وان ب55ا وی55ژگی ه55ای هیس55تومورفولوژیکی ش55ناخته ش55ده
توضیح داد .ما پیشنهاد می کنیم از هر دو استخراج کنیم هسته های تک سلولی خوش خیم و ب55دخیم و طبق55ه
بندی سازمان کروماتین ( Araujoو همکاران )2017 ،در هسته ها ب55رای همبس55تگی این ب55ه وی55ژگی ه55ای
هیستوپاتولوژیک و نشانگرهای مولکولی.
| 4.2مدل های علی ساختاری
یک جهت بسیار مهم تحقیق به سمت مدل های علی ساختاری است (پرل2009 ،؛ پرل و مک55نزی2018 ،؛
پیترز و همکاران .)2017،هوش مص55نوعی فعلی ب5ر روی ح5الت آم5اری ی5ا ب5دون م5دل ک5ار می کن5د .این
مستلزم محدودیتهای شدیدی ب55رای اثربخش55ی و عملک55رد اس55ت .چ55نین سیس55تم ه55ایی نمی توانن55د در م55ورد
مداخالت و گذشته نگری استدالل کنند و بنابراین نمی توانند برای هوش مصنوعی قوی.
برای دستیابی به هوش سطح انسانی ،هوش مصنوعی به راهنمایی مدلی از واقعیت ،مشابه مدلهای م55ورد
استفاده نیاز دارد در وظایف استنتاج علی در نتیجه ،ما پیشنهاد میکنیم:
( )1تکنیکهای تجسم جدیدی را توسعه دهیم که میتوان55د توس55ط متخصص55ان پزش55کی آم55وزش داده ش55ود،
زی55را آنه55ا میتوانن55د عوام55ل توض55یحی اساس55ی دادهه55ا را کش55ف کنن55د و ( )2ی55ک م55دل عّلی س55اختاری را
رسمیسازی کنند .ویژگی های تصمیم گیری و نقشه ب5رداری انس5انی در این رویکرده5ا ب5ه .DLدر آس5یب
شناسی دیجیتال چنین مدل های مکانیکی می تواند باشد برای تجزیه و تحلیل و پیشبی55نی پاس55خ ی55ک رفت55ار
شبکه عملکردی به ویژگیهای موجود در اسالیدهای بافتشناسی ،دادههای مولکولی و سابقه خانوادگی.
| 4.3توسعه علیت به عنوان یک زمینه علمی جدید جامع55ه تعام55ل انس55ان و رایان55ه طی55ف وس55یعی از روش
های قابلیت استفاده را ایجاد کرده اس55ت (ه55ولزینگر .)2005 ،مش55ابه این روشه55ا ،روشه55ا و آزمونه55ای
کاربردپذیری ،ما نیاز به توسعه روشه55ا ،روشه55ا و آزمونه55ای علیت داریم ک55ه مبت55نی ب55ر اص55ول علمی
روشن و نظریههای علیت باشد تا علیت را به عنوان یک حوزه علمی تثبیت کنیم که ب55ا اف55زایش اس55تفاده از
آن ضروری میشود .هوش مصنوعی همانطور که معیارهای کاربردپذیری «کیفیت اس55تفاده» را تض55مین
میکند ،معیارهای علیت نیز باید «کیفیت توضیحات» را تضمین کنند .با توجه به سلس55له م55راتب علی س55ه
الیه توسط پرل ( :)2018سطح :1ارتباط ) P(y| xبا فعالیت معمولی "دیدن" و سواالتی از جمله "چگونه
دیدن Xباور من به Yرا تغییر می دهد؟" ،در استفاده ما -م55ورد ب55اال این س55وال ب55ود ک55ه "ی55ک وی55ژگی در
بافت شناسی چه چیزی آسیب شناس را در مورد یک بیماری می کشاند؟"
سطح :2مداخله ) P(y| do(x)، zبا فعالیت معم55ول "انج55ام دادن" و س55واالتی از جمل55ه "اگ55ر Xرا انج55ام
دهم؟" ،در مورد استفاده ما در باال ،این سوال این بود که "اگر متخصص پزشکی درمان Xرا توص55یه می
کند -آیا بیمار درمان می شود؟ سطح :3متضادها ) P(yx| x 0، y 0با فع55الیت معم55ول "ب55ازنگری" و
سواالتی از جمله "آیا Yدلیل Xبود؟" ،در مورد استفاده ما در باال ،این سوال بود ک55ه "آی55ا این درم55انی ک55ه
بیمار را درمان کرد؟» برای هر یک از این سطوح ،ما باید روشهایی را برای اندازهگیری اثربخش55ی (آی55ا
توضیحی بیانیهای را با سطح جزئیات کافی توضیح میدهد) ،کارایی (آیا این کار ب55ا ح55داقل زم55ان و تالش
انجام میشود) و رضایت کاربر (کارخانه چقدر رضایت داشت) توسعه دهیم .توضیح برای فرآین55د تص55میم
گیری) .باز هم باید اش55اره ک55نیم ک55ه س55ه ن55وع توض55یح وج55ود دارد )1( :توض55یح همت55ا ب55ه همت55ا ک55ه در بین
پزشکان در حین گزارش پزشکی انجام می شود )2( .توض5یح آموزش5ی هم5انطور ک5ه بین معلم5ان و دانش
آموزان انجام می شود.
( )3توضیح علمی به معنای دقیق نظریه علم (پوپر .)1935 ،تاکی55د می ک55نیم ک55ه در این مقال55ه همیش55ه ب55ه
توضیح نوع اول اشاره می کنیم.
| 5نتیجه
هوش مصنوعی در حال حاضر یکی از فناوری های کلیدی در اقتصاد ما است .این تغییرات مشابه معرفی
موتور بخار را به همراه خواهد داشت یا برق با این حال ،نگرانی ها در مورد از دست دادن ب55القوه کن55ترل
در رابطه انسان و هوش مصنوعی در حال افزایش است .مس55ائلی مانن55د رانن55دگی مس55تقل و تص55میم گ55یری
نامشخص در مورد وسیله نقلیه ،به عنوان مثال ،در موارد شدید کمی قبل از تصادف
برخورد .،این سوال که هوش مصنوعی تا چه حد می توان55د ی55ا بای55د ب55ه همین ص55ورت اس55ت از تص55میمات
پزشکی حمایت کند یا حتی خودش آنها را بگیرد مدتهاست موضوع بحث عم55ومی ب55وده اس55ت .در بس55یاری
از موارد درک چگونگی تصمیم گ5یری ماش5ین ض55روری خواه5د ب5ود س5اخته ش5د و ب5رای ارزی5ابی کیفیت
توضیح .در حالی که راهحلهای مبتنی بر قانون ه5وش مص5نوعی اولی5ه در ده5ه 1950رویکرده5ای قاب5ل
فهم «جعبه شیشهای» را نش5ان میدادن5د ،ض55عف آنه5ا در برخ5ورد ب5ا ع5دم قطعیته5ای دنی5ای واقعی ب5ود.
بسیاری از مسائل زندگی روزمره م5ا را نمی ت5وان ب5ا قواع5د منطقی ریاض5ی نادرس5ت نش5ان داد .شکس5ت
چنین الگوریتم هایی در حل مسائلی که برای انسان نسبتًا ساده است ،مانند به عنوان زبان طبیعی ،تشخیص
چهره ها ،یا درک یک شوخی ،در نهایت به "زمستان هوش مصنوعی" در دهه 1980منج55ر ش55د .فق55ط از
طریق پیروزی روش های یادگیری احتمالی و آماری در ارتباط با موفقیت ش55بکه ه55ای عص55بی مص55نوعی
(عمیق یادگیری») آیا برنامه های کاربردی هوش مصنوعی به طور فزاینده ای موفق شدند.
امروزه الگوریتمهای DLدر زندگی روزمره م55ا بس55یار مفی55د هس55تند :رانن55دگی خودک55ار ،تش55خیص چه55ره،
درک گفت55ار ،سیس55تمهای توص55یه و غ55یره در ح55ال حاض55ر بس55یار خ55وب ک55ار میکنن55د .ب55ا این ح55ال ،درک
چگونگی این الگوریتم ها برای مردم بسیار دشوار است .به یک تصمیم بیایند در نهایت ،اینها مدل های ب55ه
اصطالح "جعبه سیاه" هستند .مشکل این است که حتی اگر اص55ول و نظریهه5ای ریاض55ی اساس5ی را درک
کنیم.
چنین مدلهایی فاقد بازنمایی علنی صریح از دانش هستند .راهحلهای اولیه هوش مص55نوعی (در آن زم55ان
به نام سیستمهای خبره) از همان ابتدا هدفشان این بود که راهحلها را قابل درک و قابل درک کنند.
بنابراین قابل توضیح است که در مسائل بسیار محدود نیز امکان پذیر بود .البته باید به تعداد زی5ادی اش5اره
کرد مش5کالت احتم5اًال در ه5ر زم5ان نی5ازی ب5ه توض5یح ب5رای هم5ه چ5یز ندارن5د .در اینج5ا ،ح5وزه ه5وش
مصنوعی قابل توضیح نه تنها مفید و ضروری است ،بلکه نشان دهنده یک فرص55ت ب55زرگ ب55رای راه ح55ل
های هوش مصنوعی است .به طور کلی بنابراین میتوان ناشنوایی عمومی هوش مص55نوعی را ک55اهش داد
و اعتماد الزم را ایجاد کرد .دقیقا این می تواند ترویج پذیرش دائمی با کاربران آین55ده مش55کل اص55لی موف55ق
ترین سیستم های فعلی ،MLکه اخیرًا توسط ) Pearl (2018تأکید شده اس55ت ،این اس55ت ک55ه آنه55ا ب55ر روی
یک حالت آماری یا بدون مدل ،که مستلزم محدودیت های شدید در عملکرد آنه5ا اس5ت .چ5نین سیس5تم ه5ایی
قادر به درک نیستند از این رو نمی توان در م5ورد م5داخالت و گذش5ته نگ5ری اس5تدالل ک5رد .ب5ا این ح5ال،
چنین رویکردهایی نیاز به راهنمایی الف دارد مدل انسانی مشابه نمونه هایی که در تحقیق55ات علیت اس55تفاده
می شود (پرل2009 ،؛ پرل و مکنزی )2018 ،برای پاسخ ب5ه این س5وال "چ5را؟" .ایج5اد علیت ب5ه عن5وان
یک زمینه علمی محکم می تواند در اینجا کمک کند.
«دادهها میتوانند به شما بگویند افرادی ک55ه دارو مص55رف کردهان55د س55ریعتر از کس55انی ک55ه آن را مص55رف
نکردهاند بهبود یافتهاند ،اما خودشان نمی توانم ب55ه ش55ما بگ55ویم چ55را ش55اید کس55انی ک55ه این دارو را مص55رف
کردهاند این کار را به این دلیل انجام دادهاند که توانایی پرداخت آن را داشتهاند و بدون آن به همان س55رعت
بهبود مییابند».