آخرین خبر

معرفي روش هاي يادگيري ماشين و کاربردهاي آن در حوزه پزشکي

آرتور ساموئل (Arthur Samuel) آمريکايي، يکي از پيشروهاي حوزه بازي هاي کامپيوتري و هوش مصنوعي، عبارت يادگيري ماشين را در سال 1959 زماني که در IBM کار ميکرد، به ثبت رساند.
يادگيري ماشين (Machine Learning)، که از الگوشناسي و نظريه يادگيري محاسباتي الهام گرفته شده است، مطالعه و ساخت الگوريتمهايي را که ميتوانند بر اساس داده ها يادگيري و پيش بيني انجام دهند بررسي ميکند. چنين الگوريتم هايي از دستورات برنامه پيروي صرف نميکنند و از طريق مدلسازي از داده هاي ورودي نمونه، پيشبيني يا تصميم گيري ميکنند. يادگيري ماشين در کارهاي محاسباتي که طراحي و برنامه نويسي الگوريتم هاي صريح با عملکرد مناسب در آنها سخت يا نشدني است، استفاده ميشود؛ برخي کاربردها عبارتاند از فيلترينگ ايميل، شناسايي مزاحمهاي اينترنتي يا بدافزارهاي داخلي که قصد ايجاد رخنه اطلاعاتي دارند، نويسه خوان نوري، يادگيري رتبه بندي، و بينايي ماشين.
با گسترش کاربردهاي فناوري اطلاعات در حوزه هاي مختلف، نياز به خودکارسازي فرآيندهاي تصميم سازي و تصميم گيري، روند فزايندهاي داشته است. دانش هوش مصنوعي به عنوان يکي از راهکارهاي اصلي براي رفع اين نيازها، از روشهاي مبتني بر يادگيري ماشين استفاده ميکند. يادگيري ماشين ارتباط نزديکي با آمار محاسباتي دارد و اغلب با آن هم پوشاني دارد، تمرکز اين شاخه نيز پيشبيني کردن توسط رايانه است و پيوند محکمي با بهينه سازي رياضي دارد، که آن هم روشها، تئوري ها و کاربردهايي را وارد ميدان ميکند. يادگيري ماشين گاهي اوقات با داده کاوي ادغام ميشود؛ تمرکز اين زيرشاخه بر تحليل اکتشافي داده ها است و با عنوان يادگيري بينظارت شناخته ميشود. يادگيري ماشين نيز ميتواند بينظارت باشد و براي يادگيري و شناخت فرم ابتدايي رفتار موجودات مختلف و سپس پيداکردن ناهنجاريه اي معنادار استفاده شود.
در زمينه تحليل داده ها، يادگيري ماشين روشي براي طراحي الگوريتم ها و مدل هاي پيچيده است که براي پيشبيني استفاده ميشوند؛ در صنعت، اين مطلب تحت عنوان تحليل پيشگويانه شناخته ميشود. اين مدل هاي تحليلي به محققان، پژوهشگران علم داده ها، مهندسان و تحليلگران اجازه ميدهد. تصميمات و نتايجي قابل اطمينان و تکرارپذير به دست آورند و با آموختن از روابط و روندهاي مربوط به گذشته، از فراست هاي پنهان پرده برداري کنند. طبق سيکل هايپ (Hype Cycle) کمپاني گارتنر، يادگيري ماشين اکنون در مرحله اوج توقعات زياد (Peak of Inflated Expectations) قرار دارد. پياده سازي اثربخش يادگيري ماشين دشوار است زيرا الگويابي دشوار است و اغلب، داده هاي آموزشي به مقدار کافي در دسترس نيستند، در نتيجه برنامه هاي يادگيري ماشين اغلب با شکست مواجه ميشوند.
روش هاي يادگيري ماشين، سيستم هاي مختلف را قادر ميکنند که ياد بگيرند، بررسي کنند و پيشنهادهاي کاربردي ارائه دهند. اين سيستم ها به مرور زمان که با داده ها، شبکه ها و افراد تعامل دارند، باهوش تر ميشوند. با استفاده از رويکردهاي يادگيري ماشين و هوش مصنوعي، اين سيستم ها قادر هستند افراد را در حل مسائل مهم، کاربردي و روزمره ياري دهند. غالباً اين کار با استفاده از داده هايي انجام ميشود که به دليل حجم زياد يا ماهيت نامفهوم، براي انسان ها چندان قابل استفاده نيست.
تاکنون انسان ها کاربردهاي بسيار زيادي از هوش مصنوعي و يادگيري ماشين را در زندگي روزمره تجربه کرده اند. سرويس هاي ايميل براي تشخيص اسپم از الگوريتم هاي يادگيري ماشين استفاده ميکنند. سيستم هاي پيشنهادگر، مرتبسازي نتايج موتورهاي جستجو، تشخيص چهره خندان براي عکاسي خودکار، همگي نمونه هاي ديگري از کاربردهاي يادگيري ماشين هستند. ابزارها و روش هاي مبتني بر يادگيري ماشين، بر خلاف ساير ابداعات و اختراعات بشر، براي رفع محدوديت ها و نيازهاي فيزيکي نيستند، بلکه هدف آنها ساختن سيستم هايي است که به جاي انسان بي انديشند، ياد بگيرند و ياد بدهند.
در طي يک دهه آينده، به نظر ميرسد که ما شاهد استفاده هر چه بيشتر يادگيري ماشين در طراحي سيستم هاي داراي تعامل با انسان خواهيم بود. يادگيري ماشين به اين معنا است که ماشين بتواند برنامه، ساختار يا داده هايش را بر اساس وروديها يا در پاسخ به اطلاعات خارجي، به نحوي تغيير دهد که رفتارش به آن چه از او انتظار ميرود نزديکتر شود، به عبارت ديگر ميتوان گفت يعني قدرت تجزيه و تحليل داشته باشد. يادگيري ماشين سال ها است که توسط شرکت هاي بزرگ در ابعاد کوچک استفاده ميشود. مثلاً آمازون با رصد کليک ها و علاقه منديهاي افراد سعي در يافتن سليقه هاي فرد کرده و تبليغاتي متناسب با آن براي افراد نشان ميدهد، گوگل در زمينه جستجوهاي اينترنتي و فيسبوک در زمينه شبکه هاي اجتماعي اقدام مشابه را انجام ميدهند و پست هاي مورد علاقه افراد را برايشان به نمايش در ميآورند. در اين تحقيق به معرفي چندين الگوريتم در زمينه يادگيري ماشين که بسيار پرطرفدار هستند پرداخته ميشود.

تاريخچه يادگيري ماشين و ارتباط با ساير رشته ها
يادگيري ماشين از حوزه هوش مصنوعي فراتر است. در همان روزهاي ابتدايي ايجاد هوش مصنوعي به عنوان رشته اي علمي، برخي محققان در پي اين بودند که ماشين ها از داده ها بياموزند. آنها تلاش کردند اين مسئله را با روش هاي نمادين متنوعي و نيز چيزي که آن موقع شبکه هاي عصبي نام داشت، حل کنند؛ اين روشها اغلب پرسپترون (Perceptron) و مدل هاي ديگري بودند که بعدها مشخص شد بازطراحي مدل هاي خطي تعميم يافته آماري بودهاند. استدلال احتمالاتي، به ويژه در تشخيص پزشکي مکانيزه، مورد استفاده قرار گرفت.
با اين حال، تاکيد روز افزون بر روش منطقي و دانش-محور، شکافي بين هوش مصنوعي AI (Artificial Intelligence) و يادگيري ماشين ايجاد کرد. سيستمهاي احتمالاتي پر شده بودند از مسائل تئوري و عملي در مورد به دست آوردن و نمايش داده ها. تا سال 1980، سيستم هاي خبره بر AI برتري پيدا کردند و آمار ديگر مورد توجه نبود. کار بر روي يادگيري نمادين/دانش-محور، درون حيطه AI ادامه پيدا کرد و به برنامه نويسي منطقي استقرايي منجر شد، اما سير آماري پژوهش ديگر از حيطه AI صرف خارج شده بود و در الگوشناسي و بازيابي اطلاعات ديده ميشد. پژوهش در زمينه شبکه هاي عصبي نيز حدود همين زمان توسط AI و علوم کامپيوتر طرد شد. اين مسير نيز خارج از حوزه AI/CS توسط محققان رشته هاي ديگر از جمله هاپفيلد (Hopfield)، راملهارت (Rumelhart) و هينتون (Hinton) تحت عنوان پيوندگرايي (Connectionism) دنبال شد. موفقيت عمده آنها در اواسط دهه 80 با بازتوليد پس انتشار (Backpropogation) حاصل شد.
يادگيري ماشين، پس از احيا به عنوان رشته اي مجزا، در دهه 90 شروع به درخشش کرد. اين رشته هدف خود را از دستيابي به هوش مصنوعي، به درگير شدن با مسائل حل پذيري که طبيعتي عملي دارند، تغيير داد و تمرکز خود را از روش هاي نماديني که از هوش مصنوعي به ارث برده بود، به روش ها و مدل هايي که از آمار و احتمالات قرض گرفته بود، انتقال داد. اين رشته همچنين از اطلاعات ديجيتالي که روز به روز دسترس پذيرتر ميشدند و از امکان توزيع آنها در اينترنت، بهره برد.
يادگيري ماشين و داده کاوي اغلب از روش هاي يکساني بهره ميبرند و با يکديگر هم پوشاني چشمگيري دارند، اما در حالي که يادگيري ماشين بر پيشبيني بر مبناي خواصِ معلوم يادگرفته شده از داده هاي آموزش تمرکز دارد، داده کاوي روي کشف خواص (سابقاً) نامعلوم در داده ها تمرکز ميکند (اين عمل، مرحله تحليل استخراج دانش در پايگاه داده ها است). داده کاوي از روش هاي يادگيري ماشين متعددي استفاه ميکند اما با اهداف متفاوت؛ از طرف ديگر يادگيري ماشين نيز از روش هاي داده کاوي به عنوان يادگيري بدون نظارت يا به عنوان مرحله پيش پردازش براي بهبود دقت يادگيرنده استفاده ميکند. بيشتر سردرگمي هاي ميان اين دو رشته پژوهشي که اغلب کنفرانس ها و مجلات متمايزي دارند، به استثناي (ECML PKDD) از فرضيات بنياديني که دارند نشئت ميگيرد: در يادگيري ماشين، عملکرد را معمولاً با توانايي بازتوليد دانش معلوم ارزيابي ميکنند، در حالي که در استخراج دانش و داده کاوي (KDD)، فعاليت کليدي، کشف دانشي است که قبلاً ناشناخته بوده است. در مقايسه با دانش معلوم، يک روش بينظارت (يک روش بي اطلاع) به راحتي از ساير روش هاي نظارت شده شکست ميخورد، در حالي که در يک فعاليت معمولي KDD، روش هاي نظارت شده به دليل عدم دسترسي به داده هاي آموزشي، قابل استفاده نيستند.
يادگيري ماشين همچنين ارتباط تنگاتنگي با بهينه سازي دارد: بسياري از مسائل يادگيري به شکل مينيمم سازي يک تابع زيان روي يک مجموعه از مثال هاي آموزشي بيان ميشوند. توابع زيان، بيان کننده اختلاف بين پيشبيني هاي مدلِ تحت يادگيري و شواهد واقعي مسئله هستند (براي مثال، در طبقه بندي، هدف تخصيص برچسب به شواهد است، و به مدل ها آموزش داده ميشود تا قبل از تخصيص، برچسب هاي يک مجموعه از مثال ها را پيشبيني کنند). تفاوت ميان اين دو رشته، از هدف کلان آنها نشئت ميگيرد: در حالي که الگوريتم هاي بهينه سازي ميتوانند زيان را روي يک مجموعه آموزشي کمينه کنند، يادگيري ماشين ميخواهد زيان را روي نمونه هاي مشاهده نشده کمينه کند.
نظريه يادگيري ماشين
يک هدف اساسي ماشين يادگيرنده، تعميم دهي از تجربه است. منظور از تعميم دهي در اين چهارچوب، توانايي يک ماشين يادگيرنده در داشتن عملکردي دقيق در فعاليت ها و مثال هاي جديد و ديده نشده، بر مبناي تجربه آن ماشين با مجموعه دادههاي آموزش است. مثال هاي آموزشي از يک توزيع عموماً ناشناخته ميآيند (که به عنوان نماينده فضاي رخدادها در نظر گرفته ميشود) و يادگيرنده بايد براي اين فضا مدلي عمومي توليد کندکه به آن، توانايي پيشبيني به قدر کافي دقيق در موارد جديد را بدهد.
تحليل محاسباتي الگوريتم هاي يادگيري ماشين و عملکرد آنها شاخهاي از علوم کامپيوتر نظري تحت عنوان نظريه يادگيري محاسباتي را تشکيل ميدهد. چون مجموعه هاي داده هاي آموزشي، متناهي هستند و آينده قطعيت ندارد، نظريه يادگيري معمولاً تضميني در مورد عملکرد الگوريتم ها به ما نميدهد. در عوض، کران هاي احتمالاتي روي عملکرد، بسيار معمول هستند. تجزيه اريب-واريانس (Bias-Variance Decomposition) راهي براي کمي سازي خطاي تعميم دهي است.
براي داشتن بهترين عملکرد در چهارچوب تعميم دهي، پيچيدگي فرض بايد به اندازه پيچيدگي تابع زمينه داده ها باشد. اگر فرض پيچيدگي کمتري از تابع داشته باشد، آنگاه مدل، دادهها را زيربرازش (Underfit) کرده است. اگر در پاسخ، پيچيدگي مدل افزايش يابد، آنگاه خطاي آموزش کاهش مييابد. اما اگر فرض بسيار پيچيده باشد، مدل در معرض بيش برازش (Overfit) قرار ميگيرد و تعميم دهي ضعيف ميشود.

الگوريتم هاي يادگيري ماشين
الگوريتم هاي يادگيري ماشين به سه دسته زير تقسيم بندي ميشود: يادگيري نظارتي، يادگيري غير نظارتي و يادگيري تقويتي.

يادگيري نظارتي (Supervised ML)
در روش يادگيري با نظارت، از داده هاي با برچسبگذاري براي آموزش الگوريتم استفاده ميشود. داده هاي داراي برچسب به اين معني است که داده به همراه نتيجه و پاسخ موردنظر آن دردسترس است. براي نمونه اگر ما بخواهيم به رايانه آموزش دهيم که تصوير سگ را از گربه تشخيص دهد، داده ها را به صورت برچسبگذاري شده براي آموزش استفاده ميکنيم. به الگوريتم آموزش داده ميشود که چگونه تصوير سگ و گربه را طبقه بندي کند. پس از آموزش، الگوريتم ميتواند داده هاي جديد بدون برچسب را طبقه بندي کند تا مشخص کند تصوير جديد مربوط به سگ است يا گربه. يادگيري ماشين با نظارت براي مسائل پيچيده عملکرد بهتري خواهد داشت. يکي از کاربردهاي يادگيري با نظارت، تشخيص تصاوير و حروف است. نوشتن حرف A يا عدد 1 براي هر فرد با ديگري متفاوت است. الگوريتم با آموزش يافتن توسط مجموعه داده هاي داراي برچسب از انواع دستخط حرف A و يا عدد 1، الگوهاي حروف و اعداد را ياد ميگيرد. امروزه رايانه ها در تشخيص الگوهاي دست خط از انسان دقيقتر و قدتمندتر هستند. در ادامه تعدادي از الگوريتم ها که در يادگيري نظارتي مورد استفاده قرار ميگيرد شرح داده ميشود.

براي مثال فرض کنيد ما ميخواهيم مدلي را آموزش دهيم که بتواند نوع تومور(خوش خيم يا بدخيم) يک بيمار را تشخيص دهد. در ابتدا ما از تعدادي بيمار که تعدادي از آنها تومور خوش خيم و تعدادي از آنها تومور بدخيم دارند داده ثبت ميکنيم. سپس از يک پزشک متخصص ميخواهيم که نوع تومور اين افراد را مشخص کند. فرض ما اين است که پزشک صددرصد نوع تومور را درست تشخيص داده است. حال افرادي که تومور خوش خيم داشتند، برچسب صفر به آنها ميدهيم و افرادي که تومور بدخيم داشتند برچسب يک به آنها ميدهيم. ورودي (داده بيمار) و خروجي (برچسب تعيين شده توسط پزشک) مشخص است. اکنون مدل خود را آموزش ميدهيم که رابطه بين ورودي و خروجي را پيدا کند. در پروسه آموزش داده به مدل ارائه ميشود و مدل طبق دانشي که دارد يک خروجي به ازاي هر داده توليد ميکند، حال ما خروجي توليد شده مدل را با خروجي مطلوبي که پزشک آن را از قبل تعيين کرده مقايسه ميکنيم و ميزان اشتباه مدل را اندازه گيري ميکنيم و مدل، خطاي خود را تصحيح ميکند. اين پروسه آنقدر تکرار ميشود تا مدل بتواند به يک عملکرد قابل قبول برسد. يعني بتواند خروجيها درستي براي هر داده مشخص کند. حال اين مدل آموزش ديده ميتواند شبيه يک پزشک متخصص عمل کند و وقتي داده يک بيماري که نوع تومور آن مشخص نشده را به مدل آموزش ديده بدهيم ميتواند نوع تومور را مشخص کند.

الگوريتم K-Nearest Neighbor
الگوريتم K-Nearest Neighbor يک الگويي شناسايي مدل اختصاصي است که براي طبقهبندي و همچنين رگرسيون از آن استفاده به عمل ميآيد. در اغلب موارد الگوريتم K-Nearest Neighbor را به اختصار K-NN مينامند و شايد بتوان در فارسي آن را الگوريتم نزديکترين همسايه ها نامگذاري کرد. حرف K در نام اين الگوريتم نشان دهنده عدد صحيح مثبت است که معمولاً يک عدد کوچک خواهد بود. در هر دو حالت طبقه بندي يا رگرسيون ورود شامل نزديکترين نمونه هاي آزمايشي K در يک فضا ميشود.
در اين رويکرد خروجي عضوي از يک طبقه خواهد بود. فرض کنيد در يک حالت عدد صحيح مثبت فرمول يا همان K برابر با 1 باشد (K=1). در اين حالت خروجي به طبقه يا رده نزديکترين همسايه واحد اختصاصي مييابد. براي شرح بهتر ماجرا به مثالي که ارائه ميکنيم توجه کنيد. در شکل زير دو گروه تعريف شده است. گروه اول الماس هاي چهار گوشي و آبي رنگ هستند و گروه دوم ستاره هاي نارنجي رنگ خواهند بود. اين دو به دو طبقه يا دسته مختلف تعلق دارند که به ترتيب دسته ستاره ها و دسته الماس ها نامگذاري شده اند.

زماني که يک گروه جديد به فضا اضافه شود (قلب وسط تصوير)، انتظار ميرود که ماشين آن را در يکي از دسته هاي تعريف شده (دسته ستارهها يا دسته الماس ها) طبقه بندي کند. در اين شرايط اگر عدد صحيح مثبت فرمول يا همان K برابر با 3 در نظر گرفته شود(K=3) ، الگوريتم، 3 مورد از نزديکترين همسايگان قلب سبز رنگ را انتخاب خواهد کرد و از آنها براي مشخص کردن اينکه قلب سبز رنگ بايد در دسته الماس ها قرار گيرد يا در دسته ستاره ها استفاده به عمل ميآورد.

همانطور که در عکس زير مشاهده ميکنيد، در اين مثال 2 ستاره و 1 الماس به عنوان نزديکترين همسايه هاي قلب سبز رنگ انتخاب شده اند. به همين دليل الگوريتم قلب سبز رنگ را در طبقه ستاره هاي دسته بندي ميکند. حال اگر عدد صحيح مثبت فرمول يا همان K برابر با 5 در نظر گرفته ميشد، الگوريتم از 5 نزديکترين همسايه ورودي جديد براي طبقه بندي آن استفاده ميکرد.

بنابراين به طور مختصر با عملکرد الگوريتم K-Nearest Neighbor آشنا شديد. جالب است بدانيد که الگوريتم K-NN در مقايسه با ساير الگوريتم هاي يادگيري ماشيني ديگر بسيار تنبل محسوب ميشود و همواره از آن به عنوان الگوريتم يادگيري ماشيني سست ياد ميشود.

درخت تصميم (Decision Tree)
ساختار درخت تصميم در يادگيري ماشين، يک مدل پيشبيني کننده است که حقايق مشاهده شده در مورد يک پديده را به استنتاج هايي در مورد هدف آن پديده پيوند ميدهد. درخت تصميم گيري به عنوان يک روش اجازه خواهد داد مسائل را به صورت سيستماتيک در نظر گرفته و بتوان نتيجه منطقي از آن گرفت.

دسته بندي کننده بيز (Naive Bayes Classifier)
دسته بنديکننده بيز در يادگيري ماشين به گروهي از دسته بندي کننده هاي ساده بر پايه احتمالات گفته ميشود که با متغيرهاي تصادفي مستقل مفروض ميان حالت هاي مختلف و براساس قضيه بيز کاربردي است. به طور ساده روش بيز روشي براي دسته بندي پديده ها، بر پايه احتمال وقوع يا عدم وقوع يک پديده است.

کمينه مربعات
در علم آمار، حداقل مربعات معمولي يا کمينه مربعات معمولي روشي است براي برآورد پارامترهاي مجهول در مدل رگرسيون خطي از طريق کمينه کردن اختلاف بين متغيرهاي جواب مشاهده شده در مجموعه داده است. اين روش در اقتصاد، علوم سياسي و مهندسي پزشکي و هوش مصنوعي کاربردهاي فراوان دارد.

رگرسيون لجستيک (Logistic regression)
زماني که متغير وابسته دو وجهي (دو سطحي مانند جنسيت، بيماري يا عدم بيماري) است و ميخواهيم از طريق ترکيبي از توابع منطقي دست به پيشبيني بزنيم بايد از رگرسيون لجستيک استفاده شود. اندازه گيري ميزان موفقيت يک کمپين انتخاباتي، پيشبيني فروش يک محصول يا پيشبيني وقوع زلزله در يک شهر، چند مثال از کاربردهاي رگرسيون لجستيک است.

ماشين بردار پشتيباني (Support vector machines )
يکي از روش هاي يادگيري نظارتي است که از آن براي طبقه بندي
و رگرسيون استفاده ميکنند. مبناي کاري دسته بندي کننده SVM دسته بندي خطي داده ها است و در تقسيم خطي داده ها سعي ميشود خطي انتخاب شود که حاشيه اطمينان بيشتري داشته باشد. از طريق SVM ميتوان مسائل بزرگ و پيچيدهاي از قبيل شناسايي تمايز انسان و رباتها در سايت ها، نمايش تبليغات مورد علاقه کاربر، شناسايي جنسيت افراد در عکسها و… را حل کرد.

يادگيري غير نظارتي (Unsupervised ML)
در اين نوع از الگوريتمها، متغير هدف نداريم و خروجي الگوريتم نامشخص است. بهترين مثالي که براي اين نوع از الگوريتم ها ميتوان بيان کرد، گروهبندي خودکار (خوشه بندي) يک جمعيت است. مثلاً با داشتن اطلاعات شخصي و خريدهاي مشتريان، به صورت خودکار آنها را به گروه هاي همسان و هم ارز تقسيم کنيم. در يادگيري بدون نظارت، الگوريتم ها از روشهاي تخمين مبتني بر آمار استنباطي براي شناسايي الگوها و همبستگي و ارتباط ميان داده هاي خام و بدون برچسب استفاده ميکند. هنگامي که الگوها شناسايي شوند الگوريتم براي شناسايي مرز درون مجموعه داده ها از آمار بهره ميگيرد. داده هايي با الگوهاي مشابه در يک گروه طبقه بندي ميشوند. با ادامه يافتن فرآيند طبقه بندي داده ها، الگوريتم الگوي مجموعه داده را درک ميکند و براي داده هاي جديد پيشبيني انجام ميدهد. در ادامه تعدادي از الگوريتم ها که در يادگيري غير نظارتي مورد استفاده قرار ميگيرند شرح داده ميشوند.

الگوريتم خوشه بندي (Cluster analysis)
خوشهبندي يا آناليز خوشه در آمار و يادگيري ماشيني، يکي از شاخه هاي يادگيري بينظارت است و فرآيندي است که در طي آن، نمونه ها به دسته هايي که اعضاي آن مشابه يکديگر هستند تقسيم ميشوند که به اين دسته ها خوشه گفته ميشود. بنابراين خوشه مجموعه اي از اشياء است که در آن اشياء با يکديگر مشابه بوده اما با اشياء موجود در خوشه هاي ديگر غير مشابه هستند.

تحليل مولفه هاي اصلي
(Principal Component Analysis)
تبديلي در فضاي برداري است که بيشتر براي کاهش ابعاد مجموعه داده ها مورد استفاده قرار ميگيرد. تحليل مولفه هاي اصلي يک تبديل خطي متعامد است که داده را به دستگاه مختصات جديد ميبرد به طوري که بزرگترين واريانس داده بر روي اولين محور مختصات، دومين بزرگترين واريانس بر روي دومين محور مختصات قرار ميگيرد. به اين ترتيب مولفه هايي از مجموعه داده را که بيشترين تأثير در واريانس را دارند حفظ ميکند.

تجزيه مقادير منفرد
(Singular Value Decomposition)
تجزيه مقدارهاي منفرد در بسياري از محاسبات علمي و مهندسي قدمي اساسي به شمار ميآيد. اولين سيستم هاي تشخيص چهره با استفاده از الگوريتم تجزيه مقادير منفرد (SVD) و تحليل مؤلفه هاي اصلي (PCA) به وجود آمدند. تحليل مولفه هاي مستقل (Independent Component Analysis) نيز روشي است براي جداسازي سيگنال به مجموع چند سيگنال ديگر به طوري که سيگنال هاي حاصل مستقل و داراي توزيع غير گوسي باشند. اين روش يک مورد از جداسازي کور منابع يا Blind Source Separation است. معمولاً مسئله در حالت سادهتري در نظر گرفته ميشود که هيچگونه تاخيري در دريافت سيگنال ها وجود ندارد.

يادگيري تقويتي (Reinforcement ML)
نوع سوم از الگوريتم ها که شايد بتوان آنها را در زمره الگوريتمهاي بدون ناظر هم دستهبندي کرد. در اين نوع ماشين (در حقيقت برنامه کنترل کننده آن)، براي گرفتن يک تصميم خاص آموزش داده ميشود و ماشين بر اساس موقعيت فعلي (مجموعه متغيرهاي موجود) و اکشن هاي مجاز (مثلاً حرکت به جلو، حرکت به عقب و …) يک تصميم را ميگيرد که در دفعات اول، اين تصميم ميتواند کاملاً تصادفي باشد و به ازاي هر حالت يا رفتاري که بروز ميدهد، سيستم يک فيدبک يا بازخورد به او ميدهد و از روي اين فيدبک ماشين متوجه ميشود که تصميم درست را اتخاذ کرده است يا نه که در دفعات بعد در آن موقعيت، همان اکشن را تکرار کند يا حالت و رفتار ديگري را امتحان کند. با توجه به وابسته بودن حالت و رفتار فعلي به حالات و رفتارهاي قبلي، فرآيند تصميم گيري مارکوف ميتواند يکي از مثالهاي اين گروه از الگوريتم ها باشد. الگوريتم هاي شبکه هاي عصبي هم ميتوانند جزو اين دسته به حساب آيند. منظور از کلمه تقويت شونده در نام گذاري اين الگوريتم ها هم اشاره به مرحله فيدبک و بازخورد است که باعث تقويت و بهبود عملکرد برنامه و الگوريتم ميشود. ميتوان گفت يادگيري تقويتي مانند يادگيري مبتني بر آزمون و خطاي انسان است. يادگيري تقويتي براي ايجاد استراتژي ها کاربرد دارد. کاربرد يادگيري تقويتي در آموزش بازيها به رايانه ها است. براي نمونه ميتوان از شرکت DeepMind را نام برد که در سال 2014 توسط گوگل خريداري شد. اين شرکت تلاش ميکند تا به الگوريتم خود، بازي قديمي و معروف آتاري (Atari) را آموزش دهد. آلفاگو (AlphaGo) سامانه هوش مصنوعي که توسط گروه DeepMind گوگل براي انجام بازي Go طراحي شده توانست قهرمان جهاني اين بازي را شکست دهد.

روش هاي يادگيري ماشيني در پردازش تصاوير پزشکي
در اين مطالعه، روشهاي جديد ارائه شده براي تشخيص بيماري سرطان معده به کمک الگوريتم هاي هوشمند مصنوعي در مطالعات متعدد بررسي و مقايسه ميشود. هدف اين روشها کمک به تشخيص به موقع و صحيح بدخيمي هاي معدوي است. متخصصان باليني تنها با تکيه بر دانش و تجربه خود و نيز نتايج حاصله از آزمايشات باليني پيچيده و زمانبر با وجود خطاهاي انساني اجتناب ناپذير، کار تشخيص بيماري هاي بدخيم و خطرناک را انجام ميدهند. استفاده از يادگيري ماشيني روشن ميکند که توانايي و ظرفيت اين تکنيک ها براي کمک به تشخيص درست بيماري هاي بدخيم معدوي چگونه است. امروزه استفاده از انواع الگوريتم ها و شبکه هاي عصبي براي استخراج ويژگي هاي بيماران و طبقه بندي صحيح آنها براي کمک به تشخيص موارد مشکوک، مورد توجه قرار گرفته است. همچنين دقت و کارايي اين روشها علي رغم هزينه هاي محاسباتي و وقت گيري مورد مقايسه قرار ميگيرد.

پيشبيني عود مجدد سرطان پستان با استفاده از تکنيک هاي يادگيري ماشين
امروزه، سرطان از عوامل اصلي مرگومير جهاني به شمار ميرود و سرطان پستان نيز رايجترين و کشنده ترين سرطان شناخته شده در ميان زنان محسوب ميشود. همه روزه به تعداد بيماراني که براي درمان هاي مختلف به بيمارستانها مراجعه ميکنند، افزوده ميشود و به واسطه آن تعداد پرونده هاي بيماران در همه بخشهاي بيمارستان ها در حال افزايش است. از اين رو همواره حجم زيادي از اطلاعات بيماران در پايگاه داده هاي پزشکي جمع آوري ميشوند، اما مشکل عدم استفاده از اين منابع است. در همين راستا داده کاوي و رويکردهاي يادگيري ماشين ميتواند به پزشکان در زمينه پيشبيني و تشخيص بيماري ها نقش موثري ايفا کند. براي اين منظور سه روش شناخته شده داده کاوي به نام هاي k نزديکترين همسايه، جنگل تصادفي، درخت تصميم C4.5، انتخاب و مورد بررسي قرار گرفته اند.

تشخيص بيماري شکستگي بر اثر فشردگي مهره ناحيه کمر ومحل ناهنجاري در تصاوير سي تي با استفاده از الگوريتمهاي يادگيري ماشين
بيماري شکستگي فشردگي مهره در اثر پوکي استخوان، معمولاً با فرورفتگي و کاهش ارتفاع قسمتي از بدنه مهره رخ ميدهد که خطر شکستگي و ترک خوردن مهره را افزايش ميدهد. اين بيماري در افراد سالمند و زناني که زايمان هاي متعدد داشته اند، شيوع بيشتري دارد و راديولوژي ستها با بررسي تصاوير پزشکي مهره ها و اندازه گيري ارتفاع بدنه مهره، به تشخيص آن ميپردازند. با توجه به خطاي پزشکي و نياز به داشتن تجربه کافي براي تشخيص بيماري، محققان به فکر استفاده از روش هاي هوشمند تشخيص بيماري با مدل سازي دانش راديولوژيست هاي ماهر با استفاده از الگوريتم هاي يادگيري ماشين افتاده اند. تشخيص محل و شدت ناهنجاري روي بدنه مهره و ميزان کاهش ارتفاع آن بخش، در نوع درمان توسط پزشک تاثيرگذار است.

آناليز تصاوير پزشکي با استفاده از شبکه عصبي عميق
در حوزه پزشکي، تشخيص بيماري با استفاده از پردازش تصوير به شايستگي انجام ميشود. به گونهاي که براي بازيابي دادههاي مربوطه از آميختگي تصوير به دست آمده بسيار دشوار است. در اينجا پردازش توسط يادگيري نيمه تحت نظارت انجام شده و سپس نتيجه با استفاده از شبکه عصبي يادگيري عميق تنظيم شده است. تنظيم عالي نتايج منجر به تشخيص کارآمد بيماري خواهد شد. با الهام گرفتن از موفقيتهاي اخير يادگيري عميق، به خصوص شبکه هاي عصبي عميق در حوزه هاي مختلف يادگيري ماشين و دسته بندي تصاوير به طور دقيقتر، دو هدف اصلي در اين مقاله دنبال خواهد شد در مرحله اول، ارزيابي يادگيري انتقالي از طريق مدل هاي عميق براي حوزه آناليز تصاوير پزشکي صورت ميگيرد. کم بودن تعداد تصاوير هيستوپاتولوژي نسبت به ساير تصاوير عمومي و بار محاسباتي سنگين آموزش شبکه هاي عميق، انگيزه انتقال دانش از حوزه هاي ديگر به حوزه تصاوير هيستوپاتولوژي را ايجاد کرده است. به منظور بررسي احتمال انتقال چنين دانشي، شبکه هاي عميقي که با تصاوير غيرپزشکي و براي اهداف طبقه بندي آموزش ديده بودند، مورد ارزيابي قرار گرفته اند. تمام مدلهاي مورد ارزيابي، شبکه هاي عصبي کانولوشني بوده و با تعداد زيادي از تصاوير غيرپزشکي آموزش ديدهاند. به منظور ارزيابي يادگيري انتقالي، 17 مدل پيش آموزش ديده شناخته شده عميق مورد بررسي قرار گرفته و بهترين آنها براي دسته بندي تصاوير هيستوپاتولوژي شناسايي خواهند شد در مرحله بعد، تنظيم دقيق يک مدل عميق براي دسته بندي و آناليز تصاوير هيستوپاتولوژي مورد ارزيابي قرار خواهد گرفت. شبيه سازي ها بر روي پايگاه داده ADL و که پايگاه داده چالش برانگيز در حوزه تصاوير هيستوپاتولوژي هستند صورت ميگيرد. هدف از اين مطالعه استفاده از روشهاي شبکه عصبي عميق جهت تشخيص بهتر پروتکلها و سکانس ها و پالس ها متناسب با ناحيه آناتوميک تصاوير پزشکي است و رده بندي کردن تصاوير پزشکي با استفاده از شبکه عصبي عميق دقت تشخيص بيماريها را بهبود ميدهد.

منابع
1- https://www.enline.ir
2-http://mediasoft.ir
3-https://click.ir
4-https://www.civilica.com/Paper-ICCSE01-ICCSE01_192.html
5-https://www.civilica.com/Paper-THCONF02-THCONF02_212.html
6-https://www.civilica.com/Paper-IRANOPEN08-IRANOPEN08_004.html
7-https://www.civilica.com/Paper-TECCONF03-TECCONF03_234.html

5/5 (3 دیدگاه ها)

دیدگاه ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

گزارش ویژه‌ی این ماه

wfn_ads

گزارش های کوتاه ماهنامه

wfn_ads
ماهنامه مهندسی پزشکی

خوش آمدید

ورود

ثبت نام

بازیابی رمز عبور