اعتماد ،امنیت و کارآیی ؛ چطور بلاکچین با کمک هوش مصنوعی این موارد را تامین خواهند کرد ؟

امروزه شاهد آن هستیم که شرکت هایی که اصرار زیادی بر فناوری های قدیمی می ورزند در رکودهای شدیدی فرو می روند و معمولا توسط پیشگامان تکنولوژی در صنایع مختلف از میدان رقابت خارج می شوند . هرگاه صحبت از حرکت های نوآورانه می شود نام شاخه های مختلف هوش مصنوعی خوش می درخشد و کارآفرینان بسیاری خلاقیت های خود را بر روی موضوعات مختلف این شاخه تکنولوژی بروز و ظهور می دهند . صنایع متعددی از جمله کشاورزی ، خدمات ، بهداشت و درمان ، تولید ، پشتیبانی های فنی ، بازی سازی و … به هوش مصنوعی وابسته اند . از دیگر سو ، بلاکچین عامل کلیدی دیگری در فناوری های مدرن امروزی می باشد که توجهات بسیاری از محققین و کارشناسان تکنولوژی را به خود جلب کرده است .
ما معمولا بلاکچین را معادل پول دیجیتال در نظر می گیریم و آن را فقط در امور مالی موثر می پنداریم ، اما حقیقت آن است که بلاکچین می تواند در حمل و نقل ، رای گیری الکترونیک ، خرده فروشی ، گذرنامه ها و مدارک الکترونیکی و … به کار گرفته شود و دلیل این موضوع هم آن است که بلاکچین در هر جایی که نیاز به تایید مجموعه ای از اقدامات وجود داشته باشد می تواند نقش کلیدی را برعهده گیرد و با محاسبات سبک و کم هزینه امنیت قوی و مناسبی را ارائه دهد .
با در نظر گرفتن گستردگی هوش مصنوعی و بلاکچین در بخش های مختلف ، می توان با همگرایی این دو موضوع به نتایج شگفت انگیزی در زمینه های مختلف دست یافت . بلاکچین می تواند قدرت خود را با کمک تکنولوژی های هوش مصنوعی ارتقاء دهد . ویژگی ها و خاصیت های جدیدی که از همگرایی هوش مصنوعی و بلاکچین بدست می آید باعث افزایش امنیت و اعتماد در تمامی زمینه های زیر می شود :
امنیت :
فناوری بلاکچین از طریق تاکتیک های امنیت سایبری به حفاظت از مدارک و گواهی نامه های دیجیتالی می پردازد و باعث می شود تا امنیت آن به حد قابل قبولی برسد . با کمک پیاده سازی های الگوریتم های هوش مصنوعی و شیوه های یادگیری ماشین ، این سطح امنیتی می تواند به سطوح بالاتری دست یابد . این موضوع می تواند باعث ارائه تضمین هایی برای آینده امنیت سایبری شود .
کارآیی :
می توان از هوش مصنوعی برای کمک به افزایش بهره وری فناوری بلاکچین استفاده کرد . هوش مصنوعی می تواند موجب کاهش هزینه های حفاظت و نگهداری از بلاکچین شود . هزینه های برآورد شده سالانه در حال حاضر به حدود ۶۰۰ میلیون دلار می رسد که هوش مصنوعی می تواند با بهینه سازی محاسبات به کاهش هزینه های بلاکچین کمک کرده و زمان تاخیر در شبکه های معاملاتی را کاهش دهد .
اعتماد :
معمولا آهنین بودن و شکست ناپذیری بلاکچین مهمترین مزیتی است که برای آن ذکر می شود . به کارگیری بلاکچین در کنار هوش مصنوعی می تواند برای استفاده کنندگان از هوش مصنوعی ، اطمینن بخش باشد . در واقع بلاکچین باعث اعتماد سیستم های رباتیکز به یکدیگر می شود و منجر به افزایش تعاملات ماشین به ماشین می شود و ربات ها می توانند با اطمینان بیشتری به اشتراک گذاری داده ها و هماهنگی در تصمیمات با یکدیگر بپردازند .
بازارهای جدید :
دسترسی به داده های خصوصی همواره موجب افزایش فروش می شود . در آینده ما با بازارهای داده ای ، بازارهای مدلی ، بازارهای سیستم های اطلاعاتی و حتی بازارهای هوش مصنوعی مواجه خواهیم شد .  در این بازارها ما شاهد خواهیم بود که داده ها به سادگی و امنیت بالا به اشتراک گذاشته خواهند شد . این بازارها باعث رشد شرکت های کوچک و متوسط می شوند و رقابت ها شکل سازنده تری را به خود خواهند گرفت . مطمئن باشید که در آینده ای نه چندان دور کارآفرینان از همگراشدن هوش مصنوعی با بلاکچین نوآوری های جدیدی را خلق خواهند کرد و چالش های جدی و مهمی  را حل خواهند کرد .
ذخیره سازی داده ها و استفاده از داده های شخصی :
بلاکچین یک ایده آل برای ذخیره سازی داده های حساس و شخصی می باشد که وقتی با پردازش های هوشمندانه هوش مصنوعی ترکیب شود ، می تواند برای زندگی مدرن ما بسیار ارزشمند باشد و راهگشای بسیاری از مشکلات امروزی مانند سیستم های مراقبت بهداشتی و سیستم های تشخیص هوشمند بیماری براساس اسکن های رادیولوژی ها و سوابق درمانی باشد .
درک بهتر از تصمیمات هوش مصنوعی :
درک تصمیمات اتخاذ شده توسط سیستم های هوش مصنوعی معمولا برای انسان ها سخت است . این که چرا باید معاملات مالی مسدود شود یا این که با قدرت ادامه داده شوند هرگز توسط انسان های معمولی نمی توانند توجیه شوند . با کمک بلاکچین و هوش مصنوعی می توان داده ها را بر روی بلوک های قرار داد و با حسابرسی دقیق و کامل به ممیزی داده ها پرداخت و مدل های مالی گوناگونی را برای شرایط مختلف تولید کرد ، بدون آن که از افشاء شدن این داده های حساس خطری را احساس کنیم .
مدیریت بهتر بر روی هوش مصنوعی با کمک بلاکچین :
الگوریتم های داده کاوی در یادگیری ماشین با داشتن اطلاعات جامع و کامل می توانند خیلی سریع فرآیند آموزش و تست را طی کنند و به تکامل برسند . اطلاعات صحیح و فراگیر در یادگیری ماشین می تواند موجب مهارت یابی ماشین ها شود . این اطلاعات امن و کامل در یادگیری ماشین می تواند توسط بلاکچین فراهم آید .
امروزه بسیاری از محققان و شرکت های تجاری به دنبال برقراری ارتباط بین این دو حوزه ارزشمند هستند . آنها سعی دارند ابزارهای هوش مصنوعی را که در سازمان ها مورد استفاده قرار می گیرند و معمولا به داده های حساس و حیاتی دسترسی دارند را به تکنولوژی بلاکچین مجهز کنند تا بدین وسیله بتوانند پوشش حفاظتی بهتری را برای این گونه داده ها فراهم کنند. همچنین در شبکه ها و رسانه های اجتماعی سعی شده است تا محتواهای انتشاریافته به کمک بلاکچین رمزنگاری شوند تا حق نشر و کپی محتواها از بین نرود .
ما امروزه شاهد همگرایی بلاکچین و هوش مصنوعی در قالب سیستم های کاشف هوشمند هستیم . به عنوان مثال Bublo یک برنامه کشف هوشمند است که بهترین مکان ها و رستوران ها را بر اساس سلایق و نظرات کاربران به آن ها پیشنهاد می دهد . در این سیستم به کاربرانی که داده ای را تولید کنند پاداش داده می شود .
همچنین انواع فناوری های هوش مصنوعی که ممکن است به صورت مستقل دچار اختلال شوند ، توسط بلاکچین می توانند تقویت شوند و در واقع این دو تکنولوژی مکمل یکدیگر خواهند بود و می توانند موجب این شوند تا کارآفرینان و نوآوران راه های جدیدی را برای کشف مسائل پیدا کنند و بینش عمیق تری را برای بهره وری و پاسخگویی به نیازهای جامعه انسانی پیدا کنند .

گردآوری و بازآفرینی (ترجمه و نشر ) : مهندس مسعود معاونی

کد مقاله : A97051502

منبع : فوربس


تلگرام

تلگرام

ربات های قاتل

ربات های قاتل

ربات های قاتل

تاکنون در فیلم های علمی ، تخیلی ربات های را مشاهده می کردیم که از کنترل انسان خارج می شدند و به بشریت آسیب می رساندند . اما در این پست قصد داریم به مواردی واقعی اشاره کنیم که در آن ، انسان هایی توسط ربات ها کشته شده اند . همواره باید به این موضوع توجه داشت ، که ربات ها هیچ ذهنیتی از خود ندارند و تنها کاری را انجام می دهند که برای آن برنامه ریزی شده اند . در اکثر موارد خطاهای ربات ها زمانی به وقوع می پیوندد که انسان ها در مسیر ربات ها حرکت می کنند و ربات ها به علت ضعف در سنسورها یا خطاهای نرم افزاری قادر به تشخیص انسان ها نیستند و به آن ها آسیب وارد می کنند . به همین دلیل است که بیشترین وقایع و مرگ های مرتبط با ربات ها در محیط کارخانه های صنعتی به وقوع می پیوندد . جایی که ربات ها نزدیک به انسان کار می کنند و معمولا انسان ها به علت ساختار ضعیف بدنی در چنین تصادم های بیشترین آسیب را می بینند .

در اینجا به ۱۰ مورد از این حوادث اشاره می کنیم :

۱- Joshua Brown اولین فردی است که در تصادف با یک اتومبیل خودران کشته شد . وی در ۷ مه سال ۲۰۱۶ در حالی که از ویلیستون به سمت فلوریدا رانندگی می کرد ، تصادف شدیدی با خودرو ، خودران شرکت تسلا کرد که منجر به کشته شدن وی گردید . خودروسازی تسلا سعی فراوانی کرد که خود را از هرگونه اتهامی در این حادثه خلاص کند و در نهایت با توجه به مستندات و مدارک پلیس نیز Brown مقصر این حادثه شناخته شد .

۲- Robert Willimas  اولین فردی است که توسط یک ربات کشته شده است . در کارخانه فورد در ایالت میشیگان در ۲۵ ژانویه ۱۹۷۹ پس از آن که یک بازوی رباتیک ضربه سنگینی به ویلیامز زد ، او را به داخل جعبه مواد بازیافتی پرتاب کرد و باعث کشته شدن می شد . کارخانه فورد به خانواده وی ۱۰ میلیون دلار غرامت پرداخت کرد .

۳- در یک پایگاه نظامی واقع در آفریقای جنوبی ۹ سرباز کشته و ۱۴ سرباز به شدت زخمی شدند . چرا که در اواسط سال ۲۰۰۷ یک سلاح ضد هوایی به صورت اتومات شروع به شلیک نمود . این سربازان در حال آموزش در دوره مقدماتی بودند که توسط این سلاح مرگبار کشته شدند . مسئولان اشکال نرم افزاری را عامل این مساله دانستند .

۴- در تاریخ ۷ جولای ۲۰۱۶ ، Micah Johnson بعد از به قتل رساندن سه افسر پلیس در یک ساختمان نیمه تمام سنگر گرفت و چندین تله انفجاری را برای جلوگیری از ورود پلیس در آن جا فعال کرد . پلیس از یک ربات ضد مین برای ورود کمک گرفت ، اما ربات به جای غیرفعال کردن مین ها به وسیله ی بازوی مکانیکی خود Johnson را بر روی آن ها پرتاب کرد و باعث کشته شدن وی گردید . همچنین در این حادثه خود ربات کاملا از بین رفت .

۵- Kenji Uradu در جولای ۱۹۸۱ توسط یک ربات در صنایع سنگین Kawazaki در زاپن کشته شد . او نخستین مرد ژاپنی است که توسط یک ربات کشته شد . Uradu در زمان حادثه در حال تعمیر ربات بود و ربات نیز از سیستم کنترل مرکزی ربات ها قطع شده بود و به صورت کامل غیرفعال بود اما به صورت ناگهانی فعال شد که این موضوع باعث مرگ این مرد ژاپنی شد .

۶- در یک تراژدی غم انگیز در کارخانه فولکس واگن در آلمان که در سال ۲۰۱۵ به وقوع پیوست ، یک انسان ناشناس توسط یک ربات کشته شد . این مرد عضو موقت تیمی بود که در حال تنظیم ربات بودند . ربات او را از روی زمین برداشت و در بین صفحات فلزی پرس سنگین قرار داد به طوری که جسد وی دیگر قابل شناسایی نبود . فولکس واگن علت این حادثه را خطای انسانی عنوان کرد .

۷- در مارس ۲۰۱۷  در یک حادثه عجیب ، Wanda Holbrook ، توسط یک ربات در کارخانه تولید قطعات خودرو Ventra , واقع در میشگان کشته شد . ربات ها در این کارخانه حق ورود به قسمت های دیگر را ندارند . اما در یک حادثه هولناک یک ربات به صورت غیرمنتظره ای وارد بخش دیگری شد و Wanda را که مسئول تعمیر این ربات بود را بر روی تسمه نقاله قرار داد و باعث مرگ وی شد .

۸- Ana Maria توسط یک ربات در صنایع غذایی در شهرکی صنعتی واقع در کالیفرنیا در سال ۲۰۰۹ کشته شد . این ربات وظیفه بسته بندی مواد غذایی را برعهده داشت و هنگامی که یک جعبه در ربات گیر کرد ، Maria ربات را غیر فعال کرد و وارد محفظه ربات شد تا جعبه را دربیاورد ، اما ناگهان ربات فعال شد و ماریا را به عنوان یک جعبه محسوب کرد و استخوان های وی را به شدت خرد کرد و باعث مرگ وی شد .

۹- در سال ۲۰۱۵ ، Ramji Lal توسط یکی از ربات های مستقر در کارخانه فلزات SKH در هند کشته شد . این ربات وظیفه حمل قطعات فلزی سنگین وزن را برعهده داشت ، اما قطعات به درستی بر روی آن قرار نگرفته بود که این ربات شروع به حرکت کرد و ضربه ای شدید به Ramji زد که باعث مرگ وی گردید .

۱۰- در ژوئن ۲۰۱۶ ، Regin Elsea در حالی که دو هفته از ازدواج وی نگذشته بود ، توسط یک ربات کشته شد . Elsea و همکاران وی در حال تعمیر یک ربات معیوب بودند . آن ها تلاش داشتند ربات را در سریعترین زمان ممکن تعمیر کنند که ربات به صورت پیش بینی نشده ای فعال شد و شروع به کار کرد و Elsea را به سمت یک ماشین سنگین دیگر پرتاب کرد که باعث مرگ وی گردید . هر چند که بعد مشخص شد که کارخانه سازنده این ربات چندین تخلف امنیتی را مرتکب شده است . در نهایت کارخانه سازنده این ربات محکوم به پرداخت جریمه ۲۷٫۷ میلیون دلاری گردید .


تاریخ انتشار : ۲۸ خرداد ماه ۱۳۹۷

گردآورنده : مسعود معاونی

منبع : اینجا کلیک کنید


تلگرام

تلگرام

اَبر اشیاء (Cloud of Things)

ابر اشیاء

ابر اشیاء

در حال حاضر به سمت نسل سوم از وب و محاسبات وب در حرکت هستیم . از سال ۲۰۱۱ تعداد دستگاه های متصل شده به شبکه اینترنت بیش از تعدا افراد روی زمین است . در حال حاضر تعداد دستگاه های متصل به اینترنت بیش از ۹ میلیارد است و انتظار می رود که این تعداد تا سال ۲۰۲۰ به بیش از ۲۴ میلیارد دستگاه برسد . با افزایش سریع تعداد دستگاه های متصل ، داده های حجیمی نیز در حال تولید می باشند .
در چند سال آینده ذخیره داده ها به طور محلی و موقت دیگر امکان پذیر نخواهد بود و نیاز به فضایی برای ذخیره سازی اجاره ای به شدت احساس خواهد شد . از طرفی دیگر باید از این حجم عظیم داده های جمع آوری شده به نحو شایسته ای استفاده کرد . داده ها نه تنها باید برای ایجاد اطلاعات کامل تر مورد پذیرش قرار گیرند ، بلکه باید به دنبال ایجاد یک عقل کل برای کمک بیشتر به انسان ها بود . این درخواست پردازش های حجیم و بزرگ در تجهیزات IoT امروزی که اکثرا دستگاه های کم هزینه و سبک وزن هستند ، امکان پذیر نمی باشد . بنابراین تنها شانس ما روی آوردن به پردازش و محاسبات اجاره ای است .
در محاسبات و پردازش های اجاره ای همواره محاسبات ابری نقش پررنگی دارد . ترکیب IoT و Cloud Computing یک مفهوم جدید را ایجاد می کند که ما آن را اَبر اشیاء یا CoT نامگذاری می کنیم . ماشین های متصل به شبکه پایه ی فنی دیجیتالیزه کردن زیرساخت های صنعتی خواهد بود که باعث ایجاد مدل های جدید در تولید و بهینه شدن آن و هم چنین بهبود خدمات می گردد .
در حقیقت آبر اشیاء ابزاری برای کمک به مدیریت بهتر و کنترل دستگاه های متصل است . ما در اَبر اشیاء به ارائه یک پلت فرم از اینترنت اشیاء در قالب ابر می پردازیم که در آن داده ها از سنسورهای جاسازی شده در ماشین های مختلف جمع آوری می شوند و این اطلاعات جمع آوری شده در یک اَبر ارزیابی و مدل سازی می شوند . یک مدیر تولید تنها به وسیله یک تلفن هوشمند ، اطلاعات ثبت شده در Cloud of Things را پیکر بندی کرده و اطلاعات موردنیاز خود را استخراج می کند .
CoT باعث می شود مقیاس پذیری گسترده ای را شاهد باشیم و کاربر با یک ابزار ساده مانند گوشی هوشمند خود به کنترل تمامی دستگاه ها و تجهیزات بپردازد و بر تمامی داده های عملیاتی نظارت کند . با کمک CoT مدیریت هزینه ها به خوبی انجام می شود چرا که دیگر نیازی به هزینه های زیادی برای برنامه نویسی ، نگهداری اطلاعات ، مدل سازی و آنالیز وجود ندارد و تمامی این ها توسط اَبر (Cloud) انجام می شود . از طرفی دیگر CoT منجر می شود که به یک استاندارد جهانی برای تمامی دستگاه ها نزدیک شویم و به وسیله اَبر ، پروتکل های ارتباطی مختلفی را بین تجهیزات مختلف اجرا کنیم .
برای ایجاد CoT باید مسائل مختلفی را مورد توجه قرار داد . CoT می تواند منجر به ایجاد فرصت های کسب و کار بیشتری شود و از طرفی دیگر ؛ مهاجمان به عنوان یک تهدید بزرگ برای امنیت و حریم خصوصی با شرایط خاص و جدیدتری مواجه شوند . حفاظت از هویت کاربران در محیط های ابری هیبریدی (hybrid clouds) که در آن فضاهای خصوصی و عمومی در مجاورت یکدیگر قرار دارند بسیار پیچیده خواهد بود .
در شبکه های CoT ، شبکه های ناهمگن با انواع سرویس های مختلف درگیر می شوند و باید از انواع داده ها پشتیبانی کنند . بنابراین باید چنین شبکه های از انعطاف پذیری بالایی برخوردار باشند تا بتوانند تمامی نیازهای کاربران را فراهم آورند .
برخی از مسائل کلیدی و چالشی در CoT عبارتند از :
  • پشتیبانی از پروتکل های مختلف
  • بهره وری انرژی و توان محاسباتی در سنسورهای سبک وزن
  • تخصیص بهینه منابع
  • مدیریت هویت طرفین ارتباط مخصوصا در ارتباطات سیار(مدیریت شناسه و احرازهویت)
  • توسعه IPv6
  • پوشش مناسب سرویس های مورد نیاز
  • ارائه سرویس های با کیفیت مطلوب(QoS)
  • تعیین موقعیت ذخیره سازی داده ها (محلی یا ابر ، امنیت و..)
  • امنیت و حریم خصوصی
  • مدیریت ارتباطات داده ها و حذف ارتباطات غیرضروری

نویسنده : مسعود معاونی
کد مطلب : A96102001

https://telegram.me/moaveni_ir

https://telegram.me/moaveni_ir

ماشین بدون راننده گوگل

شرکت Alphabet شرکت مادر گوگل است که کار خود را به طراحی رانندگی خودکار اختصاص داده است .
اطلاعاتی درباره شرکت Alphabet:
اَلفابت (انگلیسی: Alphabet Inc.) یک شرکت فناوری هلدینگ مستقر در کالیفرنیا است که شرکت گوگل زیرمجموعه‌ای از آن است.
با تأسیس این شرکت، گوگل بزرگ‌ترین زیرمجموعهٔ شرکت مادر خواهد بود و چندین بخش از جمله گوگل مپس٬ یوتیوب و آندروید به صورت زیرمجموعه‌ای از شرکت گوگل باقی خواهند ماند. علاوه برای گوگل، بعضی از زیرمجموعه‌های تازه تر شرکت گوگل، مثل سرمایه‌گذاری و بخش تحقیقات، واحد تلفن‌های هوشمند به نام نست، بازوی هواپیماهای بدون سرنشین، شرکت گوگل ایکس به‌عنوان آزمایشگاه تحقیقاتی گوگل، کالیکو شرکتی که برای بهبود شرایط زندگی انسان‌ها فعالیت می‌کند و لایف ساینس که روی پروژه‌هایی چون تماس‌های هوشمند برای بیماران دیابتی کار می‌کند نیز از زیرمجموعه‌های الفابت خواهند بود.

ماشین خودکار گوگل

ماشین خودکار گوگل

در حال حاضر تحقیقات بر روی رانندگی خودکار بخشی از کار آزمایشگاه نوآوری X شرکت آلفابت می باشد . انجمن Nikkei  در اوایل این هفته گزارشی را بوسیله John Krafcick منتشر کرد که به این موضوع پرداخته است و مدعی شده است که به زودی آزمایشگاه  X به یک نهاد مستقل تبدیل خواهد شد و به احتمال زیاد در ماه مه سال جاری به تولید ۱۰۰ ماشین فیات کریسلر اتومات اقدام خواهد کرد . البته این خودروها در مرحله تست و آزمایش باقی خواهند ماند و هرگز عرضه عمومی نخواهند شد .
مراحل آزمایش این خودروها به صورت کاملا محرمانه و خصوصی در کالیفرنیا انجام خواهد شد . هم چنین بنابر اخبار شرکت اپل (Apple)  نیز جدیدا به دنبال توسعه فناوری ماشین های بدون راننده خود می باشد .
https://telegram.me/moaveni_ir

https://telegram.me/moaveni_ir

داده های حجیم و آنالیز : ابزاری برای ایجاد ارزش افزوده

دسترسی به اطلاعات مختلفی که از طریق دستگاههای مختلف بدست می آیند فرصت بی سابقه ای را برای افزایش بهینه سازی محصولات و خدمات ایجاد می کند . سرمایه گذاری عمیق در جمع آوری داده های حجیم و تجزیه و تحلیل درست آن ها ، ارزش افزوده قابل توجهی برای بینش عملی کسب و کار شرکت های مختلف فراهم می آورد . این ارزش افزوده برای مصرف کنندگان مزایای قابل توجهی را در شیوه زندگی بهتر ایجاد کرده است .

داده های حجیم

داده های حجیم

تحلیل و جمع آوری داده ها هر چند  که دارای هزینه های قابل توجهی است اما می تواند برای تجارت و کسب وکار نتایج عملیاتی قابل توجهی داشته باشد و در شرایط خاص و رکود به عنوان یکی از امیدهای تاجران به خصوص در بخش تجارت آنلاین به حساب آید .

داده های حجیم ابزاری برای بازاریابی به موقع وهدفمند :

بازاریابی Big Data  روشی برای همکاری شرکت های بزرگ و چند ملیتی با یکدیگر در تجزیه و تحلیل ترافیک بازار می باشد و هدف آن ها ارائه بهترین پیشنهادات در بهترین زمان ها می باشد .

پیش بینی و تجزیه و تحلیل درست بر روی اطلاعات باعث می شود تا تبلیغات هدفمندتری انجام شود و خدمات بهتری ارائه گردد و برنامه های کاری بر اساس روند واقعی پیش بروند . از طریق داده محوری (data-driven) برندها می توانند از فرصت های فروش متقابل و فرصت های تشویقی برای خرید به نحوه مناسبی استفاده کنند ، هم چنین امکان استفاده از دیگر تاکتیک های بازاریابی و فروش شامل ارائه  پیشنهادات هدفدار و به موقع برای جذب مشتری بیشتر و حفظ همزمان مشتریان فعلی استفاده کرد . در بخش خرده فروشی نیز تجزیه و تحلیل مناسب اطلاعات می تواند در تغییر تقاضا ها موثر باشد . فروشگاه می تواند سبدکالا ، قیمت گذاری و پیشنهادات ویژه خود را با توجه به سایر رقبا تنظیم کند .

مهمترین استفاده کنندگان از Big Data

Amazon (شرکت تجارت الکترونیک آمریکایی است، که در سال ۱۹۹۴ توسط جف بزوس، در شهر سیاتل، ایالت واشینگتن تأسیس شد.این شرکت فعالیت جدی خود را در سال ۱۹۹۵ با عنوان فروشگاه آنلاین کتاب، آغاز کرد، سپس اقدام به فروش محصولات نو یا دست‌دوم از طریق اینترنت نمود. شرکت آمازون هم‌اکنون کتاب، سی‌دی، دی‌وی‌دی، بسته‌های نرم‌افزاری و حتی کفش و لباس نیز عرضه می‌کند و امروزه بیشترین درصد فروش را در بین سایر فروشگاه‌های اینترنت دارد.).

Walmart (شرکت خرده‌فروشی آمریکایی است، که دارای بزرگترین شبکه فروشگاه‌های زنجیره‌ای موادغذایی، سوپرمارکت‌ها و هایپرمارکت‌ها در جهان می‌باشد. این شرکت در سال ۲۰۱۲ پس از شرکت‌های رویال داچ شل و اکسان‌موبیل در رتبه سوم از بزرگترین شرکت‌های جهان قرار گرفت. در سال مالی ۲۰۱۳ شرکت والمارت با درآمدی معادل ۴۶۹ میلیارد دلار، به‌عنوان بزرگترین شرکت جهان بر پایه میزان درآمد، شناخته شد.) با استفاده از تجزیه و تحلیل داده های کلان (big data) به بهینه سازی زنجیره تامین خود و در نتیجه دسترس پذیری محصولات و تحویل سریعتر به مشتری دست یافته اند .

پیش بینی های نیاز های مشتریان :

حجم و سرعت کیفیت داده ها به همراه اتصال همیشگی می تواند در بهبود خدمات به مشتریان موثر باشد . اتوماسیون و استفاده از ماشین آلات اتوماتیک پیشرفته مدت زمان انتظار افراد را کاهش داده و امکان ارائه خدمات سریعتر را افزایش می دهد .

انقلابی در مدل های کسب و کار :

در دسترس بودن داده ها باعث حرکت به سمت مدل های کسب و کار جدید مبتنی بر داده می شود .تولید کنند گان تجهیزات اصلی سعی می کنند تا ارتباط مستمری با مشتریان خود داشته باشند و بدین وسیله مشتریان خود را تشویق به خرید بیشتر و دریافت خدمات ماهیانه و سالیانه می کنند . می توان انواع مثال هایی از مدل های داده ای جدید آورد .مثلا :

  • دسترسی به اطلاعات واقعی مثلا در صنعت بیمه اطلاعاتی مانند متوسط سرعت راننده ،میزان فشار به ترمز ،رفتارهای خطرناک راننده و … که می تواند در پروفایل یک راننده در شرکت بیمه ثبت شود و بر اساس آن نرخ بیمه نامه تعیین گردد .
  • سرویس موسیقی Spotify (Spotify از ترکیب دو کلمه Spot و Identify تشکیل شده است و به معنای کشف بهترین موسیقی هاست. Spotify در واقع یک سایت پخش موسیقی آنلاین است که امکانات جالبی دارد و برای دسترسی به این امکانات و ورود به سایت باید یک حساب کاربری داشته باشید.) که به کاربر موسیقی های مختلفی را پیشنهاد می ذهد .

هم چنین خانه های هوشمند در آینده می توانند مقصد مناسبی برای داده های کلان باشند و هم زمان عده ای از این اطلاعات برای ایجاد فرصت های جدید کسب و کار و بازاریابی و خدمات به مشتریان استفاده کنند .

مترجم و گردآورنده : معاونی

منبع :http://www.ecommercetimes.com


چشم انداز آینده رسانه ها

چشم انداز رسانه ها در آینده

چشم انداز رسانه ها در آینده

در هفته های اخیر Paul Lee تحلیل گر ارشد شرکت Debitte پیش بینی خوش بینانه ای برای اینده رسانه ها مطرح کرده است که برای صنعت چاپ شاید چندان خوشایند نباشد .
وی چشم اندازی جدید را باتوجه به پتانسیل نوآوری های جدید مطرح کرده است . استقرار تکنولوژی های هم چون wonder material که می تواند در متن مکالمات شرکت کند و Touch commerce که بر پایه finger print می باشد نشانه ای از آغاز تغییر و تحول در جامعه رسانه ای می باشد .
درباره ۱۵ سال گذشته Lee می گوید :

یک دوران طلایی برای نوآوری بوده است او به یاد می اورد که در سال ۲۰۰۲ اینترنت بر پایه dialup بوده و تلویزیون های جعبه ای مستقر بوده اند . هم چنین در آن زمان فقط به خطوط تلفن ثابت و کاتالوگ های فیزیکی دسترسی وجود داشته است . این در حالی است که این ابزار آلات امروزه به عنوان اشیایی باستانی محسوب می شوند .

هفته گذشته گاردین اعلام کرد که ۲۵۰ نفر شغل خود را در این نشریه از دست داده اند که تعداد ۱۰۰ نفر از آن ها کسانی بودند که در کار خبرگذاری بوده اند . امروزه اکثر نشریات به سمت دیجیتالی شدن حرکت کرده اند .
اما به هر شکل این رشد فناوری از سال ۲۰۰۲ به بعد امکان دسترسی غیرقابل تصوری به اخبار ، اطلاعات و سرگرمی های متنوع را بوجود اورده است . امروزه شما می توانید آخرین فیلم ها را در منزل انتخاب و در کمترین زمان ممکن آن را دانلود کنید .
در Guildford تیم پروفسور رحیم تفضلی در حال کاربرروی تکنولوژیی است که امکان دانلود فیلم ها را در کمتر از ۵ دقیق خواهد داد . این مرکز نوآوری برای اولین بار در جهان به معرفی و ارائه اینترنت نسل پنج ۵G می پردازد . اینترنتی که در حقیقت مبتنی بر اینترنت اشیا (IOT)  بوده و می تواند به یخچال ، تلویزیون ، اتومبیل و گوشی های هوشمند ما متصل خواهد بود .
وجود چنین اینترنت با سرعتی با توجه به تکنولوزی موجود و واقعیت های موجود می تواند نقطه پرتابی برای ایجاد کسب و کارهایمیلیاردی مدرن باشد . این تکنولوژی در قاالب تبلیغات اینترنتی به وضوح قابل مشاهده است .حتی مسابقات ورزشی نیز از طریق شبکه های پرسرعت اینترنتی پخش می شود و دیگر تقاضای چندانی برای تلویزیون های کابلی سنتی و ماهواره ای وجود ندارد .
مسلما بازار تجارت تلویزیونی از مباحثی است که می تواند جای بسیاری از بخش های دیگر رسانه ای را پر کند و شاید دیگر نیازی به صفحات چاپ و نشریات سنتی نباشد . در نتیجه برای ورود به این بازار باید سریع عمل کرده و به دنبال توسعه تکنولوژی های نوین بود .
https://telegram.me/moaveni_ir

https://telegram.me/moaveni_ir

وب معنایی چیست؟

روند رو به رشد تکنولوژی ما را به سمت هوشمندسازی ابزار آلات اطرافمان در جهت برآورده کردن امور روزمره ما سوق می دهد، یکی از این امور که طی سالیان اندک رشد بسیار چشم گیری داشته است پدیده وب بوده است که از صفحات ایستا و بدون رابط مناسب شروع شد و به سرعت پیش رفت طوری که اکنون میلیون ها سایت رایانه ای وجود دارد که بسیاری از آنها دارای یک رابط مناسب گرافیکی برای ارسال و دریافت اطلاعات می باشند، پیشرفت ها به اینجا ختم نشد و به دنبال وب پویا، وب معنایی مطرح شد که مکمل وب قبلی می باشد و در جهت بهبود فرایند های مختلف آن ایجاد شده و به سرعت در حال رشد می باشد.

وب حاضر که نسخه یک و دوم آن به شدت در حال استفاده و گسترش است توسط تیم برنرزلی در سال ۱۹۸۹ وقتی که اولین طرح پیشنهادی خود را به موسسه سرن (پژوهشگاه فیزیک هسته‌ای و انرژی‌های سطح بالا) در سویس بوردر فرانسه می‌فرستاد؛ اختراع شد.[۱۶] اقبال روزافزون این پدیده، محققان را به توسعه‌ی هرچه بیش‌تر آن فراخوانده است. آموزش از راه دور، فروشگاه‌های اینترنتی، سرگرمی‌های تحت وب، سایت‌های اجتماعی، ویکی‌ها، فِیس‌بوک و وبلاگ‌ها (تحت عنوان وب۲) همگی نمونه‌هایی از تلاش برای توسعه‌ی وب به‌شمار می‌آیند.[۱۷] پس از گذر از وب مذکور نوبت به وب معنایی رسید که بست و توسعه ای از وب کنونی است که کامپیوتر و افراد را قادر می سازد که با یکدیگر همکاری بهتری داشته باشند

چالش ها و راه حل ها

وب موجود بسیاری از امور ضروری و روزمره را بوسیله ابزارهای خودکار پشتیبانی نمی کند. برای مثال، موتورهای جست‌وجوی مبتنی ‌بر کلمات کلیدی مهم‌ترین ابزار در پشتیبانی از بازیابی اطلاعات هستند. اگرچه وجود آن‌ها ضروری است زیرا بدون موتورهای جست‌وجو وب توفیری ندارد، ولی هنوز هنگام استفاده از آن‌ها مشکلات و محدودیت‌های اساسی برحسب فراخوانی، دقت و محتوایِ صفحاتِ گوناگونِ وب وجود دارد که عبارتند از[۱۷]:

فراخوانی کم[۱] یا هیچ. خیلی وقت‌ها اتفاق می‌افتد که هیچ جوابی در پاسخ به درخواست وجود ندارد و یا صفحات مرتبط و مهمی در فراخوانی‌ها یافت نمی‌‌شود. اگرچه این حالت در موتورهای جست‌وجوی فعلی به‌ندرت اتفاق می‌افتد ولی غیرممکن نیست.

فراخوانی زیاد[۲]، و دقت کم. حتی بازیابی تمام صفحات مرتبط با موضوع در بین تعداد زیادی فراخوانی[۳]، اعم از صفحات کم‌مرتبط یا نامرتبط، مشکل‌ساز است. تعداد فراخوانی‌های بسیار زیاد نیز به‌اندازه‌ی فراخوانی کم بد است.

نتایج به لغات وابستگی زیادی دارند. اغلب لغات کلیدی اولیه نتایج مورد نظر را نمی‌دهند. در این موارد احتمالاً اسناد موجود در وب از اصطلاحات و لغات متفاوتی نسبت به درخواست[۴] استفاده کرده‌اند. این موضوع رضایت‌بخش نیست، زیرا قاعدتاً درخواست‌هایی که از نظر منطقی مشابهند باید نتایج یکسانی برگردانند.

هر نتیجه تنها یک صفحه‌ی وب است. اگر اطلاعات مورد نیاز در اسناد متفاوت پراکنده باشند، برای گردآوری اطلاعات مناسب معمولاً باید چندین درخواست متفاوت به موتور جست‌وجو داده شود. به‌عبارت دیگر، اطلاعات به‌صورت دستی جمع‌آوری می‌شوند.

بیش‌تر محتویات وب امروزی برای استفاده توسط انسان طراحی شده، درحالی‌که ماشین­ها تنها قادر به اشراف و دستکاری داده‌ها در سطح لغت هستند. این موضوع مهم‌ترین مانع در تهیه‌ی پشتیبانی بهتر از کاربران وب است. حال سؤال اصلی این ‌است که چگونه با استفاده از پردازش متن می‌توان وضعیت فعلی را بهبود داد؟

یک راه‌حل، نمایش محتوای وب به‌صورت موجود و استفاده از تکنیک‌های بسیار پیچیده‌ی هوش ‌مصنوعی و پردازش زبان‌ طبیعی است. این راه‌حل مدت‌هاست که شروع شده ولی باوجود برخی توفیقات هنوز ابهامات زیادی دارد.

راه‌حل دیگر نمایش محتوای وب به‌گونه‌ای است که به‌سادگی برای ماشین قابل پردازش[۵] باشد. دراین‌حالت تکنیک‌های هوش مصنوعی با بهره‌گیری از مزایای این نوع نمایش امکان درک مفاهیم را برای ماشین‌ها فراهم می‌کنند. این راه‌حل که منجر به دگرگونی عظیمی در وب خواهد شد آغاز شده و «وب‌معنایی» نامیده می‌شود.[۱۷]

وب معنایی چیست؟

کار های روزمره خود را به عامل(Agent) هایی بسپاریم طوری که خود آن ها اموری که به آنها سپرده ایم را دنبال کنند.

با یک مثال موضوع را روشن می کنیم. فرض کنید فردی مریض شده است و نیازمند یک پزشک متخصص است که بیمه خدمات درمانی نیروهای مسلح را پذیرش می کند و در نزدیکی محل زندگی وی باشد و وقت خالی نیز داشته باشد. با وجود وب فعلی انجام یک کوئری برای پرسیدن چنین پرسشی محال است. وب معنایی به دنبال راهی می گردد برای اینکه کاربر کوئری مورد نیازش را بدهد و سیستم در پشت پرده به جستجو و ارسال و دریافت اطلاعات متفاوتی بپردازد و خروجی را در یک کلمه یا یک جمله به کاربر اعلام کند. دقت کنید که در صورتی که همین کار را  بخواهیم با وب حاضر انجام دهیم این کار شدنی نخواهد بود زیرا نتایج وب حاضر بسیار افسار گسیخته و نا منسجم می باشد. وب حاضر مجموعه ای از داکیومنت هاست که با لینک هایی به هم مرتبط شده است و هیچ معنی و مفهومی بین این ارتباطات حاکم نیست و تا زمانی که روی لینک ها کلیک نکنیم هیچ چیزی در مورد محتوای آن نمی توانیم اظهار بکنیم. هدف حرکت به سمتی است که بتوان لینک ها را معنادار کرد. هر چیزی که ما به آن نیاز داریم در قالب آبجکت هایی توصیف می کنیم که وظیفه آنتولوژی می باشد. به بیان دیگر داده ها طوری نمایش داده شوند که هم توسط انسان و هم توسط ماشین ها قابل فهم باشند.

ساختار وب معنایی

در پایین ترین لایه  URI ‌ها را داریم که همان زیربنای وب امروزی می باشد. یعنی وب معنایی قرار است بر روی وب امروزی قرار بگیرد. منظور از URI یا Uniform resource identifier شناسه منحصر به فردی که برای هر منبع در اینترنت داریم. تفاوت آن با URL در این است که URI علاوه بر آدرس اینترنتی منحصر به فرد اطلاعات دیگری در مورد منبع مورد نظر نیز به ما می دهد. مثلا اگر URI یک میز را بخواهیم علاوه بر آدرس اینترنتی آن ویژگی هایی مثل رنگ و وزن و … آن نیز ذخیره شده است.

لایه بالاتر از آن XML می باشد که زبان اصلی وب معنایی می باشد. به علت اینکه در حوصله این گزارش نمی باشد در مورد آن توضیحی مختصر داده می شود. تنها به این تعریف بسنده می کنیم که XML زبانی است استاندارد که تمام تگ های آن را خودمان می توانیم تولید کنیم

برخی کابردهای هوش مصنوعی در پزشکی

کاربردهای هوش مصنوعی در پزشکی 

کاربردهای هوش مصنوعی در پزشکی

 

طراحی نرم افزار تشخیص بیماریها بوسیله هوش مصنوعی

نرم‌افزار جامع پشتیبان تصمیم‌گیری در پزشکی یکی از نرم‌افزارهائی است که با استفاده از هوش مصنوعی به تشخیص بیماری‌ها براساس علا‌ئم اقدام می‌کند به طوری که کاربر با وارد کردن نشانه‌های بیماری به رایانه، فهرستی از بیماری‌های محتمل را مشاهده خواهد کرد.

ثبت دقیق شرح حال بیمار، تشکیل پرونده، درخواست آزمایش‌های اولیه و تکمیلی، تجویز هوشمند دارو، نسخه نویسی، جستجوی اطلا‌عات بیماری، روش درمان، بانک اطلا‌عات داروها، روش مصرف و مشخص کردن عوارض جانبی دارو‌ها را از مزایای این نرم افزار است.

این نرم افزار همچنین می‌تواند بیش از دو هزار بیماری و ۳۰۰ علا‌ئم و نیز اطلا‌عات جامعی در زمینه ۶۰۰ آزمایش پزشکی ۱۳۰ مورد جراحی و ۹۰۰ عنوان دارو را در خود ذخیره کند.

مهمترین قابلیت این نرم افزار بررسی و تشخیص همزمان هزار و ۵۰۰ بیماری و ۱۰۰ هزار رابط فی ما بین بیماریها می با شد و برای کمک بیشتر به پزشکان ده هزار صفحه از متون معتبر پزشکی ، مجلا‌ت ، مقالا‌ت و تصاویر تخصصی در این نرم افزار گردآوری شده است .

استفاده از قابلیتهای هوش مصنوعی در تشخیص عفونتهای قلبی تهدید کننده

با کمک ۲ برنامه جدید هوش مصنوعی، امکان تشخیص عفونت‌های قلبی تهدیدکننده حیات بیماران و همچنین درمان زخم‌های باز بدون نیاز به فرآیندهای معمول و زمانبر درمانی برای پزشکان فراهم شده است. پیشرفت حاضر در زمینه تشخیص عوارض مهلک در حالی صورت می‌گیرد که به اعتقاد جامعه پزشکی، جدا از نتایج چشمگیر آن در نجات جان انسان‌ها و اجتناب از اعمال جراحی تهاجمی و رنج آور، این پژوهش می‌تواند بدون نیاز به انجام آزمایش‌های متعدد به صرفه‌جویی میلیونی هزینه‌های بیمارستانی در سال کمک کند.

این نرم‌افزار را برای شناسایی بیماران دارای عفونت‌های قلبی توسعه یافته و این در صورتی است که چنین عفونت‌هایی با نرخ مرگ و میر بین ۳۰ تا ۵۰ درصد، از عفونت‌های بسیار وخیم به شمار می‌روند. تشخیص دادن التهابات غشای درونی قلب (اندوکاردیتیک) یک عمل جراحی تهاجمی محسوب می‌شود و قصد از طراحی این نرم افزار تشخیص این عفونت بدون روانه کردن لوله کاوشی به درون مری فرد بیماراست..

تصویری که با استفاده از داخل کردن ابزار آندوسکوپی به درون نای شخص بیمار که با کمک دارو تسکین دهنده ، گرفته می‌شود اصطلاحا قلب‌نگاری فرامری (ترانسوفاژل اندوکاردیوگرام) است که در نوع خود فرآیندی تهاجمی و گران به حساب می‌آید. در واقع یک عمل ۳۰ دقیقه‌ای با این روش بالغ بر ۲۰۰۰ دلار هزینه دربر دارد و از طرفی انجام این عمل به تجهیزات فنی خاصی نیاز دارد که بسیاری از بیمارستان‌ها فاقد آن هستند. این در حالی است که پزشکان می توانند به جای وارد کردن لوله‌های پزشکی، به وارد کردن داده‌های لازم به رایانه و تحلیل آنها بپردازند. در این شیوه عمل، پزشکان ابتدا با ثبت داده‌هایی از جمله ضربان قلب، فشار خون، شمارش گلبول‌های سفید خون، حضور ادواتی نظیر ضربان سازهای قلبی یا سایر دستگاه‌های تعبیه شده، دمای بدن دریافتی بیماران در رایانه، نرم‌افزار دستیار عمل خود را آماده سازی می‌کنند. در این میان، تشخیص نهایی این بیماران نیز شامل اطلاعات داده شده به رایانه خواهد بود. در مرحله بعدی این الگوریتم رایانه‌ای به تحلیل داده‌های موجود برای ارتباط دادن علائم بیماری با تشخیص بیماری می‌پردازد . در ۵۰ درصد موارد این نرم‌افزار می‌تواند ظرف کمتر از ۴ ثانیه یک پیش‌بینی محاسبه‌ای را با دقت ۹۹/۹۹ درصد انجام دهد ، در باقی موارد نیز این نرم‌افزار، بیش از ۸۰‌‌درصد صحت عمل داشته است. البته محققان به این مرحله بسنده نکرده و قصد دارند، گام بعدی پروژه هوش مصنوعی خود را روی ۲۰۰ مورد از پرونده پزشکی بیمارانی اجرا کنند که رایانه، اطلاعی از تشخیص نهایی آنها ندارد.تشخیص عفونت‌های قلبی مشکل است اما اغلب می‌توان آنها را با تجویز و مصرف حدود یک هفته آنتی‌بیوتیک‌ معالجه کرد.

طراحی نرم افزاری بر پایه هوش مصنوعی برای کمک به التیام زخمهای باز

زخم‌های باز که پس از هفته‌ها یا ماه‌ها درمان، در برابر التیام و بهبود مقاومت کرده، معالجات را رد می‌کنند و به عنوان زخم‌های کم خون موضعی شناخته می‌شوند، راه تشخیص آسانی دارند اما در عوض به طرز ناامیدکننده‌ای درمان دشواری را به همراه دارند و حتی به اعتقاد برخی پزشکان، این گونه زخم‌ها هر درمانی را بی اثر می‌کنند و انگار که هیچ درمانی برای التیام آنها صورت نگرفته است. در همین ارتباط، گروهی از محققان، موفق به توسعه الگوریتمی ریاضیاتی شده‌اند که می‌تواند زمان بسته شدن یک زخم باز از نوع کم خون موضعی و همچنین این را که چه عوارض و پیامدهایی طی فرآیند قطع جریان خون و بندآوری بروز می‌کند، پیش‌بینی کند. مدل‌های فعلی، زخم‌هایی را هدف می‌گیرند که در هر صورت بسته خواهند شد، و هدف توسعه مدلی برای زخم‌هایی است که نمی‌خواهند بسته شوند.

مواردی همچون زخم‌ پای بیماران دیابتی یا زخم بیمارانی که به دلیل عوارض دیگری، قبلا فرآیند بیمارستانی را گذرانده‌اند، از موارد شایع و هدف زخم‌های باز محسوب می‌شود. گروهی تحقیقاتی برای کمک به درمان زخم‌های موضعی، برنامه‌ای را توسعه داده‌اند که داده‌های بیماران را پردازش می‌کند؛ اطلاعاتی از قبیل غلظت خون، فاکتورهای رشد، حضور گلبول‌های سفید و تراکم فیبروبلاستی از جمله داده‌هایی است که به رایانه داده می‌شوند. رایانه نیز با استفاده از این داده‌ها مدلی سه‌بعدی از زخم مربوط را ایجاد و چگونگی التیام یافتن و بهبود سریع آن را ظاهر می‌‌کند و بعلاوه زمان بسته شدن زخم را نیز تخمین می‌زند. به ادعای محققان اکنون و بر اساس این مدل، یک زخم معمولی ظرف حدود ۱۳ روز بسته خواهد شد و این در حالی است که پس از گذشت ۲۰ روز تنها ۲۵ درصد از زخم‌های باز موضعی التیام و بهبود می‌یابند. این اعداد و ارقام با آنچه عملا برای بیماران اتفاق می‌افتد، تطبیق می‌کند، اما در این میان نباید از نظر دور داشت که تا اینجای کار تنها در قالب تئوری استفاده شده و مدل حاضر هنوز روی بیماران انسانی امتحان نشده است.

به اعتقاد برخی محققان، فناوری هوش مصنوعی یا به عبارتی سامانه‌های شبیه‌ساز نحوه کارکردهای مغز خواه برای بهبود زخم‌ها و چه در مورد عفونت‌های قلبی به کار برده شوند، دست کم به این زودی‌ها جای پزشکان واقعی را نخواهند گرفت. این شبکه‌های عصبی مصنوعی نه می‌توانند بیماران را ببینند و نه می‌توانند آنها را برای یافتن علائم عفونت و آلودگی یا نشانه‌های مرضی مورد آزمایش قرار دهند؛ اما واقعیت این است که چنین برنامه‌هایی در موارد گیج‌کننده و مبهم که کار تشخیص بیماری با دشواری مواجه می‌شود و تشخیص صحیح و بموقع برای پزشک و بیمار بسیار حیاتی است، دستیاری قابل و مورد اطمینان برای متخصصان بالینی به شمار می‌رود.

الگوریتم ژنتیک

الگوریتم ژنتیک

الگوریتم ژنتیک

الگوریتم‌های ژنتیک، به عنوان یکی از راه‌حل‌های یافتن جواب مسئله در بین روش‌های مرسوم در هوش مصنوعی مطرح است. در حقیقت بدین روش می توانیم در فضای حالت مسئله حرکتی سریع‌تر برای یافتن جواب‌های احتمالی داشته باشیم؛ یعنی می توانیم با عدم بسط دادن کلیه حالات، به جواب‌های مورد نظر برسیم.

در جهان اطراف ما همه ارگانیزم‌های حیاتی از ساختارهای قانونمندی تشکیل شده‌اند. ساختارهایی که از سوی آفریدگار هستی در بطن مخلوقات قرار داده ‌شده است. همه این ارگانیزم‌ها از بلوک‌های پایه‌ای از زندگی به نام سلول تشکیل به وجود آمده‌اند. قوانین مزبور در قالب ژن‌ها به صورت کد شده در هر ارگانیزم وجود دارند. از به هم وصل شدن این ژن‌ها، رشته‌هایی طولانی به نام کروموزوم تولید می‌شود. هر ژن نمایانگر یکی از خصوصیات آن ارگانیزم است.

مانند رنگ چشم یا رنگ مو و البته هر ژن می‌تواند دارای مقادیر مختلفی باشد. مثلاً در رابطه با رنگ چشم می‌توانیم دارای مقادیری متناظر با مشکی، قهوه‌ای و آبی و سبز و… باشیم. هنگامی که دو ارگانیزم به تولید مثل می‌پردازند، در حقیقت ژن‌های خود را با یکدیگر ترکیب می‌کنند. بدین صورت که ارگانیزم تولید شده که در این متن از این بعد آن را نوزاد می‌نامیم، دارای نیمی از ژن‌های یک والد و نیم دیگر از والد دیگری است. این عمل را ترکیب می‌نامیم. گاهی اوقات بعضی از ژن‌ها دارای جهش می‌شوند. این جهش تغییری در ساختار کروموزوم ایجاد نمی‌کند، اما با توجه به این‌که مقدار جدیدی به یک ژن تخصیص می‌یابد، موجب بروز خصوصیت جدیدی می‌شود. از این اتفاق با نام جهش یاد می‌کنیم.

برای استفاده از الگوریتم ژنتیک در برنامه‌هایتان ابتدا باید راهی بیابید تا حالات جواب مسئله‌ خود را به صورت کد شده در قالب رشته‌ای از اعداد صحیح یا در فرم کلاسیک‌تر آن به صورت رشته‌ای از بیت‌ها نمایش دهید (هر رشته از بیت‌ها معادل یک کروموزوم یا یک ارگانیزم طبیعی است و هدف این است که به ارگانیزم بهتری، یعنی کرومزوم بهتری دست پیدا کنیم). بدین ترتیب جواب‌های شما به یکی از اشکال زیر خواهد بود.

۱۰۱۱۰۱۱۰۱۰۰۰۰۱۰۱۰۱۱۱۱۱۱۱۰

‌یا

۱۲۶۴۱۹۶۳۵۲۴۷۸۹۲۳۴۵۵۵۴۸۲۱۶

‌برای شروع فعالیت الگوریتم ژنتیک نیازمند جمعیتی از کروموزوم‌ها به صورت تصادفی هستیم. یعنی در ابتدا به عنوان قدم اول، تعدادی کروموزوم به صورت تصادفی ایجاد می کنیم. فرض کنید N کروموزوم و این N را جمعیت آغازین می‌نامیم.

در ادامه تابعی به نام تابع ارزش تشکیل می‌دهیم که این تابع به عنوان ورودی یک کرومزوم را دریافت می‌کند (یک جواب مسئله) و به عنوان خروجی عددی را مبتنی بر میزان بودن کرومزوم نسبت به جواب نهایی بر می‌گرداند. در حقیقت این تابع میزان خوب بودن جواب را مشخص می‌کند. برای همه نمونه‌های جمعیت مقدار تابع ارزش را حساب می‌کنیم.

در ادامه به صورت تصادفی دو نمونه از کرومزوم‌ها را انتخاب می‌کنیم. باید توجه داشته باشیم که سیستم به گونه‌ای طراحی شود که شانس انتخاب هر کرومزوم متناسب با مقدار تابع ارزش آن کروموزوم باشد. یعنی اگر کرومزومی دارای مقدار تابع ارزشی بهتری بود، شانس انتخاب شدن آن بیشتر باشد (بدین وسیله سعی می‌کنیم بیشتر روی پاسخ‌های بهتر مسئله پردازش انجام دهیم) این عمل دقیقاً معادل انتخاب طبیعت در داستان ماست (موجودات قوی‌تر شانس بیشتری برای بقا دارند).

بعد از انتخاب دو کرومزوم، اکنون نوبت به ترکیب می‌رسد. برای انجام عمل ترکیب، باید یک نقطه (نقطه شکست) در جفت کروموزوم خود را به صورت تصادفی انتخاب کنیم. هر کرومووزم را به دو پاره تقسیم می‌کنیم و در ادامه کمی جای هر پاره از هر کروموزوم را با دیگری عوض می‌کنیم. مانند شکل زیر:

کروموزوم ها در الگوریتم ژنتیک

شکسته شدن کروموزوم ها

بدین ترتیب دو کرومزوم جدید تولید می‌شود (دو جواب جدید). راه دیگری نیز برای انجام عمل ترکیب وجود دارد و آن انتخاب چند نقطه شکست است. مثلاً به شکل زیر برای ۲ نقطه شکست توجه کنید.

در هر حال ما باید یک روش را انتخاب کنیم و در طول پروژه عمل ترکیب خود را مبتنی بر آن روش انجام دهیم. بعد از انجام عملیات انتخاب و ترکیب، نوبت به عمل جهش ژن‌ها می‌رسد. عمل جهش باید با احتمال پایین رخ دهد. یعنیدر اکثر مواقع نباید دارای جهش باشیم، اما احتمال آن نیز  نباید صفر باشد. بنابراین اگر کرومزوم به دست آمده از عملگر ترکیب دچار جهش شود، باید یکی از بیت‌های آن که متناظر با ژن‌های آن هستند، به صورت تصادفی انتخاب شود و سپس مقدار آن تغییر کند. اگر بخواهیم این موضوع را به صورت کلاسیک نشان دهیم، به صورت زیر خواهد بود:

ساخت کروموزوم جدید

نتیجه نهایی

اکنون یک مرحله را انجام دادیم و یک کرومزوم جدید (جواب جدید) برای مسئله ایجاد کردیم. در ادامه دو مرتبه دو کرومزوم از جمعیت اولیه انتخاب می‌کنیم و همه اعمال گفته‌شده را روی آن انجام می دهیم تا کرومزوم دیگری ایجاد شود و این‌کار را به قدری تکرار می‌کنیم تا به تعداد کرومزوم‌های جمعیت اولیه، کرومزوم جدید داشته باشیم و این مجموعه کرومزوم جدید در حقیقت نسل جدید ما خواهند بود و ما این‌کار را به قدری ادامه می‌دهیم تا نسل‌های بهتر و بهتری را ایجاد کنیم و هنگامی جواب نهایی به دست میآید که تابع ارزشی ما، مقدار مطلوب ما را به ازای مقدار مورد نظر ما از کروموزوم ها برگرداند.

بینایی ماشین

بینایی ماشین

بینایی ماشین در هوش مصنوعی

از میان همه شاخه‌های هوش مصنوعی، شاید کاربردی‌ترین آن‌ها کامپیوتری و مکانیزه کردن سیستم‌های بینایی باشد. دامنه کاربرد این شاخه از فناوری در حال رشد، بسیار وسیع است و از کاربردهای عادی و معمولی مثل کنترل کیفیت خط تولید و نظارت ویدئویی گرفته تا تکنولوژی‌های جدید مثل اتومبیل‌های بدون راننده را دربرگرفته است. دامنه کاربردهای این تکنولوژی براساس تکنیک‌های مورد استفاده در آن‌ها تغییر می‌کند. ما سعی داریم به شما نشان دهیم که سیستم‌های بینایی ماشین چگونه کار می‌کنند و مروری کوتاه بر اهداف، تکنیک‌ها و تکنولوژی‌های موجود داشته باشیم و سعی داریم با نحوه کار بینایی ماشین و پیشرفت آن‌ها که مطابق با سیستم بینایی انسان است، آشنا شویم. در این متن، بررسی‌ خود را با دو مثال انجام می‌دهیم. اولی سیستم کنترل کیفیت خط تولید است که شامل نحوه عکس‌برداری و ذخیره و شیوه تفسیر عکس‌های گرفته شده به‌صورت خودکار است و دیگری به‌عنوان یک مثال پیچیده‌تر، چگونگی بینایی یک ربات را توضیح می‌دهد.

کنترل کیفیت و بینایی ماشین

بینایی ماشین

کنترل کیفیت خط تولید

یکی از کاربردهای بینایی ماشین در کنترل کیفیت خروجی کارخانه‌ها می‌باشد. شکل ۱۲ مثالی بسیار ساده از چنین سیستمی است. اجناس تولید‌شده در کارخانه که برروی یک نوار نقاله قرار گرفته‌اند و توسط یک دوربین CCD  برای آزمایش دیده می‌شوند و محصولات با کیفیتِ مناسب اجازه عبور پیدا خواهندکرد. چنانچه محصولی دارای استانداردهای مناسب نباشد از ادامه مسیر حذف می‌شود. معیار این استانداردها می‌تواند لبه‌های زائد، خراشیدگی و بادکردگی و تورم روی فلزات و بسیاری چیزهای دیگر باشد. در این مثال ما در پی یافتن مکانیزم خط تولید نیستیم و فقط می‌خواهیم ببینیم که یک شی تولیدشده چگونه استاندارد تشخیص داده شده و اجازه عبور می‌یابد و برعکس چگونه به بعضی از اشیاء اجازه عبور و ادامه دادن داده نمی‌شود.

 عکس‌برداری
در این مثال ما سعی در مکانیزه کردن فرآیندی یکنواخت داریم که به‌صورت معمول و تکراری توسط انسان انجام می‌شود . اولین مسأله و مشکل ما این است که چگونه عکس‌های تهیه شده از اشیایی که در حال حرکت بر روی نوار نقاله هستند را تبدیل به داده‌های قابل فهم و تفسیر برای سیستم نماییم، که این مشکل توسط دوربین CCD  حل می‌شود. عملکرد این دوربین را می‌توان به عملکرد چشم انسان که قادر است  سطوح  مختلف نور را تشخیص دهد تشبیه نمود.

چشم انسان و ساختار آن

ساختار چشم انسان

چشم انسان

چشم انسان که در شکل ۱۳ نشان داده شده است، تقریباً یک عدسی کروی با قطر ۵/۲ سانتی‌متر   می‌باشد که از چندین لایه مختلف که درونی‌ترین آن‌ها شبکیه نام دارد تشکیل شده است. ماهیچه‌های اطراف چشم اندازه لنز را تنظیم می‌کنند که این‌کار چشم را قادر به زوم (Zoom) کردن روی اشیاء می‌کند.

وظیفه عدسی چشم، فرم و شکل دادن به تصویری است که توسط میلیون‌ها سلول گیرنده مخروطی (Cone) و میله‌ای (Rod) گرفته شده و برروی پرده شبکیه افتاده است، می‌باشد. سلول‌های میله‌ای به یک عصب معمولی که از انتها به شبکیه ختم می‌شود و فقط در سطح نور پایین فعال است متصلند و سلول‌های مخروطی هر کدام به یک عصب اتصال دارند. آن‌ها در نورهای شدیدتر، بیشتر فعالند  و میزان درک ما از رنگ‌ها را نوع فعالیت این‌ مخروط‌ها مشخص می‌کند.

در میان شبکیه ناحیه‌ای به‌نام نقطه کور وجود دارد که در آن هیچ‌ گیرنده‌ای موجود نیست. در این ناحیه اعصاب به‌صورت جداگانه به عصب بینایی که سیگنال‌های دریافت شده را به قشر بینایی مخ انتقال می‌دهند، وصل می‌شود. 

 دوربین CCD 

CCD از جهت عملکرد تقریباً مانند چشم انسان کار می‌کند. نور از طریق یک عدسی وارد دوربین و برروی یک پرده مخصوص تصویر می‌شود که تحت عنوان تراشه CCD شناخته می‌شود. تراشه Coupled Device Charge(CCD) که تصاویر با استفاده از آن گرفته می‌شوند از تعداد زیادی سلول تشکیل شده که همگی در یک  تراشه با الگوی خاصی مرتب شده‌اند و تحت عنوان پیکسل (Pixels) شناخته می‌شوند.

سیگنال دیجیتال

سیگنال دیجیتال

زمانی که تراشه CCD این اطلاعات را دریافت می‌کند، آن‌ها را به شکل سیگنال‌های دیجیتالی از طریق کابل‌هایی به سیستم دریافت‌کننده  می‌فرستد و بعد تصاویر در این سیستم به صورت مجموعه‌ای از اعداد ذخیره می‌شوند. همان‌طور که در شکل ۱۴ می‌بینید هر عدد نماینده یک پیکسل است.

درک تصویر

درک تصویر

 درک تصویر

با هر تصویر، چه با دوربین گرفته شود و چه با چشم انسان، مقداری تحریف و تغییر شکل و به عبارتی “نویز (Noise) ” وجود دارد. البته در مورد مثال ما در سیستم خط تولید این مسأله چندان اهمیت ندارد اما در موقعیت‌هایی که نیاز به دقت بالا وجود دارد باید از نورپردازی خاصی برای تصویربرداری استفاده شود.

انسان‌ برای درک تصاویری که می‌بیند نیازی ندارد هیچ کاری در مورد فیلتر کردن و از بین بردن نویزهای  یک تصویر انجام دهد. مثلاً در یک روز ابری که مه همه جا را فرا گرفته، دید ما به شدت ضعیف و دچار مشکل می‌شود. اما هر آنچه را که قادر به دیدنش باشیم  درک می‌کنیم. یعنی برای درک اشیاء نیازی به حذف نویزهای تصویر نیست. مثلاً اگر در این روز در حال رانندگی در یک جاده باشید و تصویر مبهمی از یک ماشین را مقابل خود ببینید، بالطبع عکس‌العمل نشان می‌دهید و به عبارتی سرعت خود را کم می‌کنید.

و این یعنی ما هنوز تصویر ماشین را علیرغم وجود مه می‌توانیم تشخیص دهیم و در مقابل آن عکس‌العمل نشان‌دهیم. و یا مثلاً زمانی که دچار سرگیجه می‌شوید، علیرغم این‌که تصاویر اطراف خود را تار و مبهم می‌بینید اما قادر به درک و تشخیص وسایل و تصاویر اطراف خود هستید. یعنی ابتدا صبر نمی‌کنید تا سرگیجه‌تان به پایان برسد و بعد تصاویر را تشخیص دهید و این یعنی با قدرت بینایی انسان، علیرغم خراب شدن تصاویر اطراف، می‌توانیم متوجه فضای اطراف خود بشویم. اما برای بینایی ماشین ابتدا باید این  نویزها طی فرآیندی که تصفیه کردن یا فیلترینگ نامیده می‌شود، از بین برود و بعد هر آنچه برای پردازش عکس لازم است انجام شود.

خوشبختانه در حال حاضر تکنیک‌هایی برای انجام این کار وجود دارد. از بین بردن نویزها به‌صورت نرمال توسط تعدادی از توابع ریاضی یا الگوریتم‌هایی که تحت عنوان ‘Treshholding’ یا ‘Quantizing’ نامیده می‌شود انجام می‌گردد. این فرآیند بسیار حرفه‌ای و پیچیده‌ای است و نیاز به دانش و پشتوانه بالای ریاضی دارد. زمانی که خرابی‌ها از بین رفت، می‌توانیم پردازش عکس‌ها را ادامه دهیم  که این کار با استخراج صورت‌ها و حالت‌ها از یک تصویر انجام می‌شود. یک شیوه معمول که غالباً مورد استفاده قرار می‌گیرد استخراج لبه‌ها که در شکل ۱۵ دیده می‌شود، می‌باشد.

در مورد مثال ما در سیستم خط تولید، وظیفه اصلی یک اپراتور کنترل کیفیت این است که به سرتاسر محصول تولید شده نگاه کرده و با مقایسه آن با استانداردهای مورد قبول، برای محصول تولید‌شده جواز عبور یا عدم عبور صادر کنند.

 اگر این کار با استفاده از بینایی ماشین صورت گیرد باید عکس گرفته شده از محصول تولید شده با عکسی که از یک محصول استاندارد وجود دارد مقایسه ‌شود. یکی از روش‌های انجام این کار به این صورت است:

برای انجام این‌کار، یک تصویر از محصول استاندارد در کامپیوتر ذخیره می‌شود و سپس از محصولا‌تی که از  خط تولید عبور می‌کنند. تصویر گرفته می‌شود و به عنوان نقشه لبه ذخیره می‌شود. و بعد سیستم، تصویر گرفته شده را از چپ به راست و از بالا به پایین به‌گونه‌ای که در هر زمان فقط یک رقم عبور کند، می‌لغزاند و عدد ظاهر شده در هر موقعیت را با عدد همان موقعیت در تصویر اصلی مقایسه می‌کند و در صورت تفاوت آن را اعلا‌م می‌نماید.

لذا عملیات بینایی کامپیوتر در حقیقت مقایسه دو مجموعه عدد است که اگر تفاوت این دو مجموعه از یک محدوده خاص فرارتر برود، از پذیرفتن محصول امتناع شده و در غیر این‌صورت محصول‌ پذیرفته می‌شود  یک مثال پیچیده‌تر
در مثال قبل سیستم مورد مطالعه بسیار محدود بود و فقط یک تصویر دو بعدی از یک محصول را با تصویر اصلی و ایده‌آل مقایسه می‌کرد و احتیاجی به بررسی مقادیر اندازه و زاویه نبود.

در این مثال می‌خواهیم به سیستم بینایی که برای یک ربات خانگی که قادر به تمیز کردن خانه، پختن غذا و … طراحی شده نگاهی بیاندازیم. این مثال بسیار پیچیده‌تر از مثال قبلی است و نیاز به آگاهی از تغییرات محیط دارد. به عبارت بهتر نیاز به یک سیستم هوشمندتر داریم. قبلاً دیدیم که تصاویر چگونه ذخیره و تفسیر می‌شوند. غالب تکنیک‌های گذشته دوباره در این مثال به‌کار گرفته می‌شوند. تفاوت اصلی در تفسیر تصاویر گرفته شده است. در مثال قبلی فضای سیستم بینایی فقط متشکل از یک سری محصول بود، اما در این مثال ربات باید از همه آنچه در اطرافش می‌گذرد باخبر بوده و این یعنی با دنیای وسیع‌تر و بزرگ‌تری روبروست. بدین‌منظور نیاز به تکنیک‌های تشخیص پیچیده‌تری وجود دارد.

یعنی در این مثال، یک صحنه فرضی شامل ده‌ها یا حتی صدها شی مختلف در معرض دید است. این اشیاء در اندازه‌ها و تحت زوایای مختلف که متأثر از نوع نورپردازی هم هستند به نمایش درمی‌آیند و به همین دلیل برای تشخیص این اشیاء نیاز به تکنیک‌های هوش‌مصنوعی (Ai) می‌باشد.

تفاوت‌های شبکه‌های عصبی با روش‌های محاسباتی متداول و سیستم‌های خبره

گفتیم که شبکه‌های عصبی روش متفاوتی برای پردازش و آنالیز اطلاعات ارائه می‌دهند. اما نباید این گونه استنباط شود که شبکه‌های عصبی می‌توانند برای حل تمام مسائل محاسباتی مورد استفاده واقع شوند. روش‌های محاسباتی متداول همچنان برای حل گروه مشخصی از مسائل مانند امور حسابداری، انبارداری و محاسبات عددی مبتنی بر فرمول‌های مشخص، بهترین گزینه محسوب می‌شوند. جدول ۱، تفاوت‌های بنیادی دو روش محاسباتی را نشان می‌دهد.

جدول 1

شبکه های عصبی و تفاوت با سیستم خبره

سیستم‌های خبره، انشعابی از روش محاسباتی متداول محسوب می‌شود و در مواردی هم به آن نسل پنجم محاسبات نام داده‌اند (نسل اول از کلید و سیم‌بندی استفاده می‌کرد، نسل دوم با اختراع ترانزیستور ایجاد شد، نسل سوم از فناوری مدارات مجتمع استفاده می‌کرد، نسل چهارم با به وجود آمدن زبان‌های سطح بالا آغاز شد و نسل پنجم شامل هوش مصنوعی می‌شود). به طور معمول، یک سیستم خبره شامل دو بخش عمده می‌شود. یک بخش یا موتور استنتاجی و یک پایگاه دانایی (Knowledge base). موتور استنتاجی، بخشی است که رابط کاربر را مدیریت می‌کند و بر فایل‌ها و دسترسی به برنامه‌ها و برنامه‌ریزی کنترل دارد. پایگاه دانایی شامل اطلاعاتی در ارتباط با یک مسئله مشخص است. این پایگاه به متخصصان اجازه می‌دهد که قواعد فرایند مشخصی را تعریف نماید. چنین متخصصی نیازی به دانستن روش‌های برنامه‌نویسی نخواهد داشت. او تنها باید کاری که از کامپیوتر می‌خواهد را درک کند و شناخت کافی از روش عمل سیستم داشته باشد. درواقع پوسته سیستم بخشی است که به کامپیوتر می‌گوید چه‌کار باید انجام دهد. برنامه‌ لازم برای حل مسئله توسط خود سیستم تولید خواهد شد.

تلاش‌هایی که برای اجرایی کردن سیستم‌های خبره به کار گرفته شده‌اند، با مشکلات مشترکی مواجه بوده‌اند. با افزایش سطح پیچیدگی سیستم‌ها، منابع کامپیوتری مورد نیاز سیستم به شدت افزایش می‌یابند و سیستم با کندی بیش از حد روبرو می‌شود. در حقیقت تجربه نشان داده است که در وضعیت فعلی، سیستم‌های خبره تنها می‌توانند در مواقعی مفید واقع شوند که هدف محدود و مشخصی تعیین شده باشد.

شبکه‌های عصبی در مسیری گام برمی‌دارند که ابزارها توانایی فراگیری و برنامه‌ریزی خود را داشته باشند. ساختارشبکه‌های عصبی به گونه‌ای است که قابلیت حل مسئله را بدون کمک فرد متخصص و برنامه‌ریزی خارجی داشته باشند. شبکه‌های عصبی قادر به یافتن الگوهایی در اطلاعات هستند که هیچ‌کس، هیچ‌گاه از وجود آنها اطلاع نداشته است.
درحالی‌که سیستم‌های خبره در عمل به موفقیت‌های بسیاری دست یافته‌اند، شبکه‌های عصبی در کاربردهایی همچون دید مصنوعی، تشخیص و تولید پیوسته گفتار، فراگیری ماشینی و نظایر آن با مشکلاتی روبرو بوده‌اند.  در حال حاضر شبکه‌های عصبی کاملاً وابسته به سرعت پردازنده سیستم اجرا کننده هستند.

آموزش به شبکه‌های عصبی

آموزش در شبکه های عصبی

آموزش در شبکه های عصبی

شبکه‌های عصبی می‌توانند بر اساس طراحی خود سیگنال‌های ورودی را پردازش کنند و به سیگنال‌های خروجی مورد نظر تبدیل نمایند. به طور معمول، پس از آنکه یک شبکه عصبی طراحی و پیاده‌سازی شد، باید پارامترهای w و b (که قبلاً معرفی کردیم) به ازای مجموعه‌هایی از سیگنال‌های ورودی، به‌گونه‌ای تنظیم شوند که سیگنال‌های خروجی شبکه خروجی مطلوب را تشکیل دهند. چنین فرایندی را آموزش دیدن شبکه عصبی می‌نامند (در نخستین مرحله آموزش، مقادیر w و b  به‌طور تصادفی انتخاب می‌شوند. زیرا تا این پارامترها مقدار نداشته باشند، شبکه عصبی قابل استفاده نخواهد بود) در حین آموزش دیدن شبکه عصبی (یعنی به تدریج همزمان با افزایش دفعاتی که مقادیر پارامترها برای رسیدن به خروجی مطلوب‌تر، تنظیم می‌شوند) مقدار پارامتر‌‌ها به مقدار حقیقی و نهایی خود نزدیک‌تر می‌شوند.

به‌طور کلی دو روش برای آموزش دادن شبکه‌های عصبی وجود دارد. روش Supervised و روش Unsupervised. روش نخست، شامل مراحلی است که در بخش قبل، به‌طور مختصر تشریح شد. اما در روش Unsupervised ، شبکه عصبی باید بدون کمک گرفتن از جهان خارج، بتواند کار آموزش را انجام دهد.

واقعیت آن است که در عمل از روش Supervised  و یا حداکثر از روش‌های ترکیبی استفاده می‌شود و فرایند آموزش Unsupervised به شکل خالص تنها وعده‌ای است که شاید در آینده بتواند تحقق یابد.
در حال حاضر و در کاربردهای پیشرفته، از روش آموزش Unsupervised برای ایجاد تنظیمات اولیه بر روی سیگنال‌های ورودی شبکه‌های عصبی استفاده می‌شود و باقی مراحل آموزش شبکه به روش Supervised  ادامه می‌یابد.
همان‌طور که قبلاً اشاره کردیم، در روش معمول آموزش شبکه‌های عصبی، از مجموعه‌ شناخته‌شده‌ای از داده‌های ورودی و خروجی‌های متناظر آنها (Training Set Data) برای آموزش دادن شبکه استفاده می‌شود. در چنین فرایندی، پس از اعمال مجموعه‌های داده‌های آموزشی، پارامترهای شبکه به تدریج به سمت مقادیر نهایی خود همگرا می‌شوند.

بسته‌های نرم‌افزاری پیشرفته تولید و طراحی شبکه‌های عصبی، دارای ابزارهایی هستند که بر روند آموزش شبکه مدیریت می‌کنند. چنین ابزارهایی می‌توانند سرعت همگرایی پارامتر‌های شبکه را زیر نظر بگیرند و به عنوان مثال، اجازه دهند که پارامترهای یک شبکه مشخص، در طول چندین روز به دقت کافی و مورد نظر طراحان خود برسد.
در مواردی ممکن است که شبکه‌ عصبی اصولاً موفق به فراگیری نشود. بدین معنی که پارامترهای شبکه پس از زمان‌های طولانی به مقدار مشخصی همگرا نشود. چنین مواردی ممکن است بر اثر ناکافی بودن داده‌های آموزشی و یا اصولاً نقص طراحی شبکه ایجاد شوند. حتی مواردی در عمل وجود دارند که شبکه عصبی مشخصی، بر اثر آموزش بیش از حد، اصطلاحا Over Trained شود. توجه داشته باشید که فرایند آموزش شبکه‌های عصبی فقط به ازای زیر مجموعه‌ای از داده‌هایی که قرار شبکه آنها را در کاربرد حقیقی خود پردازش کند، آموزش داده می‌شوند. درصورتی‌که تعداد داده‌های آموزشی یک شبکه عصبی بیش از اندازه زیاد باشد (در واقع از تمامی داده‌های مسئله برای آموزش دادن به شبکه استفاده شود)، شبکه عصبی به جای آنکه آموزش ببیند، به حالتی می‌رسد که به آن حفظ کردن اطلاعات می‌گویند. در واقع به جای آنکه یک شبکه عصبی برای حل مسئله از هوش خود کمک بگیرد، از محفوظات خود استفاده می‌کند!
پس از آنکه یک شبکه عصبی به اندازه کافی آموزش دید، طراح یا کاربر شبکه می‌تواند پارامترهای شبکه را قفل کند (هر چند که در مواردی پارامترهای شبکه آزاد گذارده می‌شوند تا در طول کاربرد واقعی بازهم شبکه آموزش ببیند). در این مرحله شبکه عصبی برای کاربرد واقعی خود و حل مسائل آماده خواهد بود. در برخی از ابزارهای تولید و طراحی شبکه‌های عصبی، کل شبکه عصبی به همراه پارامترهای قفل شده آن، تبدیل به نرم‌افزار مستقلی (مثلاً یک فایل dll) می‌شوند که می‌توان از آن در پروژه‌های مشخصی استفاده کرد. در برخی از موارد دیگر، چنین شبکه‌هایی پس از آموزش دیدن، به شکل سخت‌افزاری در قالب یک مدار مجتمع (IC) به تولید انبوه یا نیمه انبوه می‌رسند.

 آموزش Unsupervised  یا تطبیقی (Adaptive)

  در مورد این روش آموزش گفتیم که شبکه‌ عصبی بدون در اختیار داشتن داده‌های خروجی، در معرض آموزش قرار می‌گیرد. در واقع سیستم به تنهایی و بدون کمک خارجی باید با توجه به شکل سیگنال‌های خروجی خود، درباره درستی و نادرستی آنها تصمیم‌گیری نماید. در دنیای واقعی شرایط بسیار زیادی وجود دارند که در آنها مجموعه اطلاعات کافی برای آموزش دادن به سیستم فراهم نیستند. تحقیقات نظامی یکی از گرایش‌هایی است که به این موضوع توجه دقیقی دارد. به عنوان مثال گفته می‌شود که شرایط جنگی به دلیل فراوانی پارامترها و تکنیک‌های نظامی متغیر و پیشرفت‌های تکنولوژی نظامی، از نمونه مواردی است که در آنها به هیچ وجه نمی‌توان مجموعه داده‌های آموزشی کافی به دست آورد.در این زمینه یکی از محققان شبکه‌های عصبی، به نام Tuevo Kohonen (از دانشگاه هلسینکی) فعالیتی جدی دارد. کوهنن با تحقیقات در ساختارهای عصبی غیرمتعارف، به پژوهش در این زمینه ادامه می‌دهد. کوهنن، نرون‌های شبکه‌عصبی را فیلدهای مختلفی تقسیم‌بندی می‌کند. در روش کوهنن، نرون‌های هر فیلد “مرتب توپولوژیک” یا Topologically Ordered محسوب می‌شوند (توپولوژی نام شاخه‌ای از ریاضیات است که در آن نگاشت از یک فضا به فضای دیگر بدون تغییر مشخصه‌های هندسی، مورد بررسی قرار می‌گیرد). گروه‌بندی‌های سه‌بعدی که در ساختار مغز پستانداران یافت شده است، نمونه‌ای از مرتب‌سازی توپولوژیک محسوب می‌شوند. کوهنن معتقد است که فقدان ملاحظات توپولوژیک در مدل‌های عصبی امروزی، باعث می‌شود که شبکه‌های عصبی امروزی، مدل‌های ساده شده‌ای از شبکه‌های عصبی واقعی موجود در مغز محسوب شوند. در هر صورت این حوزه از مبحث شبکه‌های عصبی، هنوز در مرحله تحقیقات آزمایشگاهی قرارداد و کاربرد واقعی نیافته است.

عملیات شبکه‌های عصبی

ساختار دو بعدی نرون ها

ساختار دو بعدی نرون ها

تا کنون توجه ما معطوف ساختار درونی یک نرون مصنوعی یا المان پردازشی بود. اما بخش مهم دیگری در مراحل طراحی یک شبکه عصبی نیز وجود دارد . در واقع هنر یک طراح شبکه‌های عصبی می‌تواند در چگونگی ترکیب نرون‌ها در یک شبکه ( Neuran Clustering ) ، متجلی شود.علوم بیولوژی نشان داده‌اند که کلاسترین نرون‌ها در

شبکه عصبی مغز ما به‌گونه‌ای است که ما را قادر می‌سازد تا اطلاعات را به‌ صورتی پویا، تعاملی و خودسامان (Selforganizing) پردازش کنیم . در شبکه‌های عصبی بیولوژیک، نرون‌ها در ساختار‌ی سه بعدی به یکدیگر اتصال یافته‌اند. اتصالات بین نرون‌ها در شبکه‌های عصبی بیولوژیک آنقدر زیاد و پیچیده‌است که به هیچ وجه نمی‌توان شبکه مصنوعی مشابهی طراحی کرد. تکنولوژی مدارات مجتمع امروزی به ما امکان می‌دهد که شبکه‌های عصبی را در ساختار‌های دو بعدی طراحی کنیم. علاوه بر این، چنین شبکه‌های مصنوعی دارای تعداد محدودی لایه و اتصالات بین نرون‌ها خواهند بود. بدین ترتیب، این واقعیات و محدودیت‌های فیزیکی تکنولوژی فعلی، دامنه کاربردهای شبکه‌های عصبی مبتنی‌بر تکنولوژی سیلیکونی را مشخص می‌سازند.

ساختار شبکه‌های عصبی امروزی، از لایه‌های نرونی تشکیل شده است. در چنین ساختاری، نرون‌ها علاوه بر آنکه در لایه خود به شکل محدودی به یکدیگر اتصال داده شده‌اند، از طریق اتصال بین لایه‌ها نیز به نرون‌های طبقات مجاور ارتباط داده می‌شوند. در شکل ۱۰ نمونه‌ای از ساختار لایه‌ای یک شبکه عصبی مصنوعی نمایش داده شده است (تعداد اتصالات ممکن بین نرون‌ها را در چنین ساختاری با تعداد اتصالات بین نرون‌های مغز انسان، مقایسه کنید).

در این توپولوژی، گروهی از نرون‌ها از طریق ورودی‌های خود با جهان واقعی ارتباط دارند. گروه دیگری از نرون‌ها نیز از طریق خروجی‌های خود، جهان خارج را می‌سازند. در واقع این”جهان خارج” تصویری است که شبکه عصبی از ورودی خود می‌سازد یا می‌توان چنین گفت که جهان خارج “تصوری” است که شبکه عصبی از ورودی خود دارد. خلاصه آنکه در توپولوژی فوق، مابقی نرون‌ها از دید پنهان هستند.

تلاش محققان در زمینه شبکه‌های عصبی نشان داده است که شبکه‌های عصبی، چیزی بیشتر از یک مشت نرون که به یکدیگر اتصال داده شده‌اند، هستند. حتی گروهی از محققان سعی داشته‌اند که از اتصالات تصادفی برای ارتباط دادن نرون به یکدیگر استفاده کنند که در این زمینه به نتایج جالب توجهی دست نیافتند. امروزه مشخص شده است که در ساده‌ترین مغز‌های بیولوژیک مانند مغز مارها هم ارتباطات بین نرون‌ها بسیار ساخت‌یافته است. در حال حاضر یکی از ساده‌ترین روش‌های ارتباط دهی نرون‌ها در شبکه‌های عصبی، آن است که ابتدا نرون‌ها در گروه‌های مشخصی به صورت لایه‌های نرونی سازمان‌دهی می‌شوند و پس از تامین ارتباطات بین‌نرونی در هر لایه، ارتباطات بین لایه‌ها نیز برقرار می‌شوند.
اگرچه در کاربردهای مشخصی می‌توان با موفقیت از شبکه‌های عصبی تک لایه استفاده کرد، اما رسم بر آن است که شبکه‌های عصبی حداقل دارای سه لایه باشند (همانطور که قبلاً اشاره شد، لایه ورودی، لایه خروجی و نهایتاً لایه پنهان یا لایه میانی).

در بسیاری از شبکه‌های عصبی، اتصالات بین‌نرونی به گونه‌ای است که نرون‌های لایه‌های میانی، ورودی خود را از تمام نرون‌های لایه پایینی خود (به طور معمول لایه نرون‌های ورودی) دریافت می‌کنند. بدین ترتیب در یک شبکه عصبی، سیگنال‌ها به تدریج از یک لایه نرونی به لایه‌های بالاتر حرکت می‌کنند و در نهایت به لایه آخر و خروجی شبکه می‌رسند. چنین مسیر در اصطلاح فنی Feed Forward نامیده می‌شود. ارتباطات بین‌نرونی در شبکه‌های عصبی از اهمیت بسیار زیادی برخوردار هستند و به نوعی قدرت یک شبکه عصبی را تعیین می‌کنند. قاعده آن است که ارتباطات بین نرونی را به دو گروه تقسیم‌بندی می‌کنند. یک نوع از ارتباطات بین نرونی، به‌گونه‌ای هستند که باعث جمع شدن سیگنال در نرون بعدی می‌شوند. گونه دوم ارتباطات بین نرونی باعث تفریق سیگنال در نرون بعدی می‌شوند. در اصطلاح محاوره‌ای گروهی از ارتباطات انگیزش ایجاد می‌کنند و گروه دیگر ممانعت به عمل می‌آورند.        

در مواردی، نرون مشخصی از شبکه عصبی تمایل دارد که سیگنال دیگر نرون‌های لایه خود را نادیده بگیرد. چنین حالتی به‌طور معمول در لایه خروجی ایجاد می‌شود. به عنوان مثال، در کاربردهای تشخیص متن (OCR)، فرض کنید که احتمال آنکه کاراکتر مورد شناسایی، حرف P باشد برابر با ۸۵ درصد تعیین شده است و به همین ترتیب احتمال آنکه کاراکتر مورد نظر حرف F باشد، ۶۵‌ درصد تخمین زده است. در این وضعیت، سیستم باید کاراکتری را برگزیند که دارای درصد احتمال بزرگ‌تر است. در نتیجه در این شبکه عصبی، نرون‌هایی که خروجی F را تجویز می‌کنند، باید نادیده گرفته ‌شوند یاInhibit شوند. به چنین فرایندی، Lateral Inhibition گفته می‌شود.

نوع دیگری از ارتباط بین نرونی در شبکه‌های عصبی به ارتباط بازخورد یا Feedback معروف است. در این نوع از ارتباطات، خروجی یک لایه نرونی به لایه قبلی (یا به لایه‌ای که چند مرحله پایینتر است) اتصال داده می‌شود. در شکل ۱۱ نمونه‌ای از یک شبکه عصبی نمایش داده شده که در آن از ارتباط بازخوردی استفاده شده است. در نرم‌افزارهای پیشرفته شبکه‌های عصبی، کاربر و طراح شبکه عصبی می‌تواند نوع ارتباطات بین نرون‌ها و لایه‌های آنها را تعیین کند.

 

شبکه های عصبی (Neural Network)

شبکه های عصبی

شبکه های عصبی

شبکه‌های عصبی را می‌توان با اغماض زیاد، مدل‌های الکترونیکی از ساختار عصبی مغز انسان نامید. مکانیسم فراگیری و آموزش مغز اساساً بر تجربه استوار است. مدل‌های الکترونیکی شبکه‌های عصبی طبیعی نیز بر اساس همین الگو بنا شده‌اند و روش برخورد چنین مدل‌هایی با مسائل، با روش‌های محاسباتی که به‌طور معمول توسط سیستم‌های کامپیوتری در پیش گرفته شده‌اند، تفاوت دارد. می‌دانیم که حتی ساده‌ترین مغز‌های جانوری هم قادر به حل مسائلی هستند که اگر نگوییم که کامپیوترهای امروزی از حل آنها عاجز هستند، حداقل در حل آنها دچار مشکل می‌شوند. به عنوان مثال، مسائل مختلف شناسایی الگو، نمونه‌ای از مواردی هستند که روش‌های معمول محاسباتی برای حل آنها به نتیجه مطلوب نمی‌رسند. درحالی‌که مغز ساده‌ترین جانوران به‌راحتی از عهده چنین مسائلی بر می‌آید. تصور عموم کارشناسان IT بر آن است که مدل‌های جدید محاسباتی که بر اساس شبکه‌های عصبی بنا می‌شوند، جهش بعدی صنعت IT را شکل می‌دهند. تحقیقات در این زمینه نشان داده است که مغز، اطلاعات را همانند الگو‌ها (Pattern) ذخیره می‌کند. فرآیند ذخیره‌سازی اطلاعات به‌صورت الگو و تجزیه و تحلیل آن الگو‌، اساس روش نوین محاسباتی را تشکیل می‌دهند. این حوزه از دانش محاسباتی (Computation) به هیچ وجه از روش‌های برنامه‌نویسی سنتی استفاده نمی‌کند و به‌جای آن از شبکه‌های بزرگی که به‌صورت موازی آرایش شده‌اند و تعلیم یافته‌اند، بهره می‌جوید. در ادامه این نوشته به این واژگان که در گرایش شبکه‌های عصبی، معانی ویژه‌ای دارند، بیشتر خواهیم پرداخت.

شباهت با مغز

اگرچه مکانیسم‌های دقیق کارکرد مغز انسان (یا حتی جانوران) به‌طور کامل شناخته شده نیست، اما با این وجود جنبه‌های شناخته شده‌ای نیز وجود دارند که الهام بخش تئوری شبکه‌های عصبی بوده‌اند. به‌عنوان مثال، یکی ازسلول‌های عصبی، معروف به نرون (Neuron) است که دانش بشری آن را به‌عنوان سازنده اصلی مغز می‌انگارد. سلول‌های عصبی قادرند تا با اتصال به‌یکدیگر تشکیل شبکه‌های عظیم بدهند. گفته می‌شود که هر نرون می‌تواند به هزار تا ده هزار نرون دیگر اتصال یابد (حتی در این مورد عدد دویست هزار هم به عنوان یک حد بالایی ذکر شده است).

قدرت خارق‌العاده مغز انسان از تعداد بسیار زیاد نرون‌ها و ارتباطات بین آنها ناشی می‌شود. ساختمان هر یک از نرون‌ها نیز به‌تنهایی بسیار پیچیده است. هر نرون از بخش‌ها و زیر‌سیستم‌های زیادی تشکیل شده است که از مکانیسم‌های کنترلی پیچیده‌ای استفاده می‌کنند. سلول‌های عصبی می‌توانند از طریق مکانیسم‌های الکتروشیمیایی اطلاعات را انتقال دهند. برحسب مکانیسم‌های به‌کاررفته در ساختار نرون‌ها، آنها را به بیش از یکصدگونه متفاوت طبقه‌بندی می‌کنند. در اصطلاح فنی، نرون‌ها و ارتباطات بین آنها، فرایند دودویی(Binary)، پایدار (Stable) یا همزمان (Synchronous) محسوب نمی‌شوند.

در واقع، شبکه‌های عصبی شبیه‌سازی شده یا کامپیوتری، فقط قادرند تا بخش کوچکی از خصوصیات و ویژگی‌های شبکه‌های عصبی بیولوژیک را شبیه‌سازی کنند. در حقیقت، از دید یک مهندس نرم‌افزار، هدف از ایجاد یک شبکه عصبی نرم‌افزاری، بیش از آنکه شبیه‌سازی مغز انسان باشد، ایجاد مکانیسم دیگری برای حل مسائل مهندسی با الهام از الگوی رفتاری شبکه‌های بیولوژیک است.

نرون بیولوژیک

نرون بیولوژیک در شبکه عصبی

روش کار نرون‌ها

در شکل یک، نمای ساده شده‌ای از ساختار یک نرون بیولوژیک نمایش داده شده است. به‌طور خلاصه، یک نرون بیولوژیک، پس از دریافت سیگنال‌های  ورودی (به‌ شکل یک پالس الکتریکی) از سلول‌های دیگر، آن سیگنال‌ها را با یکدیگر ترکیب کرده و پس از انجام یک عمل (Operation) دیگر بر روی سیگنال ترکیبی، آن را به‌صورت خروجی ظاهر می‌سازد.

همان‌طور که در تصویر مشاهده می‌کنید، نرون‌ها از چهار بخش اصلی ساخته شده‌اند. دندریت‌ها (Dendrite)، سوما (Soma)، اکسان (Axon) و بالاخره، سیناپس (Synapse) دندریت‌ها، همان اجزایی هستند که به‌شکل رشته‌های طویل از مرکز سلول به اطراف پراکنده می‌شوند. دندریت‌ها نقش کانال‌های ارتباطی را برای انتقال‌دادن سیگنال‌های الکتریکی به مرکز سلول بر عهده دارند. در انتهای دندریت‌ها، ساختار بیولوژیکی ویژه‌ای به‌نام سیناپس واقع شده است که نقش دروازه‌های اتصالی کانال‌های ارتباطی را ایفا می‌کند. در واقع سیگنال‌های گوناگون از طریق سیناپس‌ها و دندریت‌ها به مرکز سلول منتقل می‌شوند و در آنجا با یکدیگر ترکیب می‌شوند. عمل ترکیب که به آن اشاره کردیم، می‌تواند یک عمل جمع جبری ساده باشد. اصولاً اگر چنین نیز نباشد، در مدل‌سازی ریاضی می‌توان آنرا یک عمل جمع معمولی در نظر گرفت که پس از آن تابع ویژه‌ای بر روی سیگنال اثر داده می‌شود و خروجی به شکل سیگنال الکتریکی متفاوتی از طریق اکسان (و سیناپس آن) به سلول‌های دیگر انتقال داده می‌شود.

البته تحقیقات جدید نمایانگر این واقعیت هستند که نرون‌های بیولوژیک بسیار پیچیده‌تر از مدل ‌ساده‌ای هستند که در بالا تشریح شد . اما همین مدل ساده می‌تواند زیربنای مستحکمی برای دانش شبکه‌های عصبی مصنوعی (Artificial Neural Network = ANN) تلقی گردد و متخصصان گرایش شبکه‌های عصبی یا هوش مصنوعی می‌توانند با پیگیری کارهای دانشمندان علوم زیست‌شناسی، به بنیان‌گذاری ساختار‌های مناسب‌تری در آینده دست بزنند.

مدل ریاضی 

در متون فنی برای نمایش مدل ساده‌ای که در بالا‌ تشریح گردید، به‌طور معمول از شکلی مشابه شکل ۶ استفاده می‌شود. در این شکل کلاسیک، از علامت p برای نشان دادن یک سیگنال ورودی استفاده می‌شود. در واقع در این مدل، یک سیگنال ورودی پس از تقویت (یا تضعیف) شدن به اندازه پارامتر w، به‌صورت یک سیگنال الکتریکی با اندازه pw وارد نرون می‌شود. به‌جهات ساده‌سازی مدل ریاضی، فرض می‌شود که در هسته سلول عصبی، سیگنال ورودی با سیگنال دیگری به اندازه b جمع می‌گردد. در واقع سیگنال b خود به معنی آن است که سیگنالی به اندازه واحد در پارامتری مانند b ضرب (تقویت یا تضعیف) می‌شود. مجموع حاصل، یعنی سیگنالی به اندازه pw + b، قبل از خارج شدن از سلول تحت عمل یا فرآیند دیگری واقع می‌شود که در اصطلاح فنی به آن تابع انتقال (Transfer Function) می‌گویند. این موضوع در شکل به‌وسیله جعبه‌ای نمایش داده شده است که روی آن علامت f قرار داده شده است. ورودی این جعبه همان سیگنال pw + b است و خروجی آن یا همان خروجی سلول، با علامت a  نشانه گذاری شده است. در ریاضی، بخش آخر مدل‌سازی توسط رابطه (a = f(pw + b نمایش داده می‌شود. پارامتر w یا همان ضریبی که سیگنال ورودی p در آن ضرب می‌شود، در اصطلاح ریاضی به نام پارامتر وزن یا weight  نیز گفته می‌شود.

ورودی خروجی سلول های شبکه عصبی

سلول شبکه عصبی

زمانی‌که  از  کنار هم قرار دادن تعداد بسیار زیادی از سلول‌های فوق یک شبکه عصبی بزرگ ساخته شود، شبکه‌ای در دست خواهیم داشت که رفتار آن علاوه بر تابع خروجی f، کاملاً به مقادیر w و b وابسته خواهد بود. در چنین شبکه بزرگی، تعداد بسیار زیادی از پارامترهای w و b باید توسط طراح شبکه مقداردهی شوند. این پروسه از کار، در اصطلاح دانش شبکه‌های عصبی، به فرآیند یادگیری معروف است. در واقع در یک آزمایش واقعی، پس از آن‌که سیگنال‌های ورودی چنین شبکه‌ بزرگی اتصال داده شدند، طراح شبکه با اندازه‌گیری خروجی و با انتخاب پارامترهای w و b به‌گونه‌ای که خروجی مطلوب به‌دست آید، شبکه را«آموزش» می‌دهد. به این ترتیب پس از آنکه چنین شبکه به ازای مجموعه‌ای از ورودی‌ها برای ساختن خروجی‌های مطلوب «آموزش» دید، می‌توان از آن برای حل مسائلی که از ترکیب متفاوتی از ورودی‌ها ایجاد می‌شوند، بهره برد.
تابع f می‌تواند بر حسب کاربردهای گوناگون به‌‌طور ریاضی، به شکل ‌های متفاوتی انتخاب شود. در برخی از کاربردها، پاسخ مسائل از نوع دودویی است. مثلاً مسأله به‌گونه‌ای است که خروجی شبکه عصبی باید چیزی مانند”سیاه” یا “سفید” (یا آری یا نه) باشد. در واقع چنین مسائلی نیاز به آن دارند که ورودی‌های دنیای واقعی به مقادیر گسسته مانند مثال فوق تبدیل شوند. حتی می‌توان حالاتی را در نظر گرفت که خروجی دودویی نباشد، اما همچنان گسسته باشد. به عنوان مثال، شبکه‌ای را در نظر بگیرید که خروجی آن باید یکی از حروف الفبا، مثلاً  از بین کاراکترهای اسکی (یا حتی یکی از پنجاه هزار کلمه متداول زبان انگلیسی) باشد. در چنین کاربردهایی، روش حل مسئله نمی‌تواند صرفاً بر جمع جبری سیگنال‌های ورودی تکیه نماید. در این کاربردها، ویژگی‌های خواسته شده فوق، در تابع خروجی یا تابع انتقال f گنجانیده می‌شوند. مثلاً اگر قرار باشد خروجی فقط یکی از مقادیر صفر یا یک را شامل شود، در این صورت می‌توان تابع خروجی شبکه عصبی را به ‌شکل بخش a  شکل شماره ۷ انتخاب کرد. در این حالت، خروجی چنین شبکه‌ای فقط می‌تواند بر حسب ورودی‌های متفاوت، مقدار یک یا صفر باشد.

در گروه دیگری از مسائلی که حل آن‌ها به شبکه‌های عصبی واگذار می‌شود، خروجی شبکه عصبی الزاماً بین مقادیر معلوم و شناخته شده‌ واقع نمی‌شود. مسائلی از نوع شناسایی الگو‌های تصویری، نمونه‌ای از چنین مواردی محسوب می‌شوند. شبکه‌های عصبی در این موارد، باید به‌گونه‌ای باشند که قابلیت تولید مجموعه نامتناهی از پاسخ‌ها را داشته باشند. رفتار حرکتی یک روبات نمونه‌ای از <هوشی> است که چنین شبکه‌های عصبی می‌توانند فراهم آورند. اما در چنین شبکه‌هایی هم لازم خواهد بود که خروجی بین مقادیر مشخصی محدود شده باشد (موضوع محدود شدن خروجی بین دو مقدار حدی ماکزیمم و مینیمم را در اینجا با موضوع قبلی اشتباه نگیرید. در این مورد خروجی مسأله اساساً  گسسته نیست و حتی در بین چنین مقادیر حدی، می‌توان به تعداد نامتناهی خروجی دست یافت). اهمیت این موضوع زمانی آشکار می‌شود که از مثال واقعی کمک گرفته شود. فرض کنید قراراست از شبکه عصبی برای کنترل حرکت بازوی یک روبات استفاده شود. در صورتی‌که خروجی یک شبکه عصبی برای کنترل نیروی حرکتی به‌کار گرفته شود، طبیعی خواهد بود که اگر خروجی شبکه محدود نشده باشد، ممکن است بازوی روبات بر اثر حرکت بسیار سریع، به خود و یا محیط اطراف آسیب برساند. در چنین مواردی ممکن است از تابع انتقال به‌شکل بخش b شکل شماره ۷ استفاده شود.
قبل از آنکه به بخش دیگری از موضوع شبکه‌های عصبی بپردازیم، باید یک نکته را یادآوری کنیم که همان‌طور که در ابتدای این بخش تشریح شد، سلول‌های عصبی دارای ورودی‌های متعددی هستند و خروجی آنها نیز الزاماً محدود به یک خروجی نیست. بر این اساس زمانی که بخواهیم از مدل‌سازی ریاضی برای مدل کردن یک سلول عصبی استفاده کنیم، به‌جای آن‌که همانند شکل ۶ از یک ورودی p و یک خروجی a استفاده کنیم، از یک بردار p و یک بردار a سخن می‌گوییم. بدین ترتیب بدون آنکه نیاز به اعمال تغییری در این تصویر داشته باشیم، می‌توانیم از آن برای مدل‌سازی سلولی با n ورودی (p1,p2,p3 . . . pn) و به همین ترتیب m خروجی (a1,a2,am) استفاده کنیم. توجه داشته باشید که در این صورت، تعداد عناصر b و w نیز به تناسب افزایش می‌یابند و هر یک به n عدد افزایش می‌یابند.

نرون های عصبی الکترونیکی

پیاده سازی الکترونیکی نرون های عصبی

پیاده‌سازی‌های الکترونیکی نرون‌های مصنوعی

نرم‌افزارهایی که در آن‌ها از شبکه‌های عصبی استفاده شده است، نرون‌های شبکه را المان پردازنده (Processing element) می‌نامند. به‌طور معمول در محصولات نرم‌افزاری، المان‌های پردازنده قابلیت بسیار بیشتری از نمونه ساده‌شده‌ای که در بخش‌های پیشین تشریح کردیم، دارند. در شکل شماره ۴، نمایی با جزئیات بیشتر از یک نرون مصنوعی را نشان می‌دهد.

در این مدل، ورودی‌ها در نخستین گام، در ضریب وزنی (Weighting Factor) متناظر خود ضرب می‌شوند. در مرحله بعد، ورودی‌هایی که تغییر مقیاس داده‌اند وارد واحدی می‌شوند که در آن سیگنال‌های ورودی با هم ترکیب می‌شوند. به‌طور معمول عمل ترکیب در این واحد همان عمل جمع جبری است، اما در اصول، می‌توان در این واحد، ورودی‌ها را به روش‌های دیگری علاوه بر عمل جمع معمولی نیز با یکدیگر ترکیب کرد. مثلاً می‌توان به‌جای عمل جمع، از عمل متوسط گیری، انتخاب بزرگترین، انتخاب کوچک‌ترین، عمل OR یا‌ AND منطقی هم استفاده کرد. در واقع هدف نهایی در این واحد آن است که از تعداد n ورودی، یک سیگنال خروجی برای ارائه به بخش‌های بعدی فرایند، به‌دست آید. انتخاب نوع “عمل” در این واحد، موضوع دقیقی است که کاملاً به کاربرد مسأله وابسته است.

به‌طور معمول در نرم‌افزارهای تجاری، امکان انتخاب و حتی ساختن توابع گوناگون برای این واحد، از طرف نرم‌افزار به کاربران داده می‌شود. حتی می‌توان کاربردهایی یافت که در آنها، عمل ترکیب در این واحد، وابسته به زمان باشد و در زمان‌های گوناگون پردازش مسأله، عملیات مختلفی برای ترکیب کردن ورودی‌ها به‌کار برده ‌شوند.

در هر صورت، پس از آنکه ورودی‌ها با یکدیگر ترکیب شدند، سیگنال حاصل به واحد دیگری که در آن تابع انتقال یا Transfer Function به سیگنال اعمال می‌شود، هدایت می‌گردد. خروجی این بخش، سیگنال‌های حقیقی خواهند بود. بدین ترتیب جعبه‌ای در دست خواهیم داشت که تعداد n عدد سیگنال ورودی را به m عدد سیگنال خروجی تبدیل می‌کند. در عمل توابع انتقالی که در بخش انتهایی نمودار شکل ۸ به‌کار برده می‌شوند، معمولاً یکی از توابع سینوسی، تانژانت هذلولی، Sigmoid و نظایر این‌ها است. در تصویر شماره ۹، نمونه‌ای از یک تابع انتقال از نوع Sigmoid نمایش داده شده است. همانطور که در این شکل مشاهده می‌کنید، این تابع انتقال، سیگنال خروجی واحد ترکیب را به سیگنال خروجی تبدیل می‌کند که مقدار (یا اندازه آن) بین صفر و یک می‌تواند باشد.
در عمل، سیگنالِ خروجی یک المان پردازنده می‌تواند برحسب نوع کاربرد، به المان‌های پردازشی دیگر و یا به اتصالات دیگر خارج از شبکه عصبی هدایت شود. در واقع تمامی شبکه‌های عصبی بر اساس ساختار المان‌های پردازشی فوق کار می‌کنند. در قسمت بعدی این مقاله به تشریح عملیات در شبکه‌های عصبی و آموزش این شبکه‌ها می‌پردازیم.

منطق فازی و هوش مصنوعی‌

هوش مصنوعی و منطق فازی

هوش مصنوعی و منطق فازی

جالب‌ترین کاربرد منطق فازی، تفسیری است که این علم از ساختار تصمیم‌گیری‌های موجودات هوشمند، و در راس آن‌ها، هوش انسانی، به دست می‌دهد.

این منطق به خوبی نشان می‌دهد که چرا منطق دو ارزشی «صفر و یک» در ریاضیات کلاسیک قادر به تبیین و توصیف مفاهیم نادقیقی همچون «گرما و سرما» که مبنای بسیاری از تصمیم‌گیری‌های هوشمند را تشکیل می‌دهند، نیست.

هوش مصنوعی و فازی

هوش مصنوعی

شاید یکی از جالب‌ترین کاربردهای منطق فازی هوش مصنوعی در بازی‌های رایانه‌ای و جلوه‌های ویژه سینمایی باشد. از نرم‌افزار Massive در بسیاری از صحنه‌های فیلم برای تولید حرکات لشکر موجودات متخاصم استفاده شده بود.