• بازدید : 40 views
  • بدون نظر
این فایل در ۳۳صفحه قابل ویرایش تهیه شده وشامل موارد زیر است:

هرچه بر تنوع حجم و منابع موجود در شبکه وب افزوده می گردد، بحث جستجو و اطلاع یابی در محیط وب ابعاد و جنبه های گسترده تر و پیچیده تری به خود می گیرد.
گاهی یافتن پاسخ این پرسش در این شبکه به شکلی ساده و سریع انجام می شود و تنها به تایپ کلید واژه ای مناسب در یک موتور جستجوی آشنا مثل گوگل نیاز است. اما همیشه اطلاع یابی در این شبکه به این سهولت نیست و معمولا به تدبیر و تامل بیشتری نیاز دارد. با این حال گاهی با اتخاذ تمام تدابیر ممکن باز هم جستجو در وب و به ویژه از طریق موتور های کاوش عمومی نتیجه ای رضایت بخش در پی ندارد.
چنانچه منبعی مورد نظر درمحیط  وب موجود  باشد اما موتور های جستجو قادر به فراهم آوری امکان بازیابی آن نباشند اطلاعات مورد نظر در سایه وب پنهان / وب نامرئی مخفی مانده است.
افزايش روز افزون منابع اطلاعاتي و نياز شديد افراد در دسترسي به اين اطلاعات در سراسر دنيا از يك سو و در دنياي شگفت انگيز ارتباطات رايانه اي از سوي ديگر، موجب پيدايش شبكة جهاني اينترنت در اواخر دهة ۱۹۶۰ گرديد. ولي تا سال ۱۹۹۰ هيچگونه ابزاري براي كاوش اطلاعات موجود در آن وجود نداشت. در سال ۱۹۹۰ شبكة جهاني وب در« آزمايشگاه فيزيك ذره اي اروپا » واقع در سوئيس توسط « تيم برنرزلي » ابداع شد.
پس از ابداع شبكة جهاني وب، ابزارها و موتورهاي كاوش نيز پا به عرصة ظهور نهادند.

در سال ۱۹۹۰ اولين ابزار كاوش توسط  «آلان امتيج» در دانشگاه «مك گيل» با عنوان «آركي» ابداع شد.
« آركي » از طريق نمايه سازي فايل هاي موجود در سايتهاي اف تي پي ( پروتكل انتقال فايل )، امكان جستجو و بازيابي فايل ها در محيط اينترنت را فراهم ساخت.

 اما با وجود پيشرفت ها و تحولات در حوز ة ذخيرة اطلاعات در اينترنت كه يكي از امتيازات بارز اين پديدة جديد مي باشد، بايد يادآور شد كه ذخيرة اطلاعات به تنهايي كافي نيست، قطعًا اطلاعات توليدشده زماني ارزش واقعي مي¬يابد كه مورد استفاده قرار گيرد. مشكلات موجود در زمينة جستجو و بازيابي اطلاعات در اينترنت باعث شده كه حجم زيادي از اطلاعات ذخيره شده درآن، قابل دسترس نباشد. (Sherman and price, 1999)  
به موازات گسترش ابزارهاي كاوش، پژوهش  دربارة جنبه هاي مختلف اين موتور نيز شروع شد. بيشترين مباحث مطرح شده، موضوع دامنة كاوش و ميزان سودمندي و كارآيي موتورهاي كاوش بوده، كه در اين خصوص بحث هاي زيادي نيز صورت گرفته، اما از موضوعاتي كه كمتر مورد توجه قرار گرفته موضوع وب نامرئي مي باشد.

به رغم آنکه تاکنون مقالات متعدد به زبان انگلیسی درباره وب نامرئی منتشر شده اما به روشنی معلوم نیست که چه کسی برای اولین بار این واژه را ابداع کرده است.
مرور نوشتارها حاكي از آن است كه به نخستين ( وب نامرئي ) احتمال قريب به يقين گویا عبارت  “وب پنهان یا وب نامرئی” درسال ١٩٩٤ توسط « ژيل السورث »  ابداع شده است (برگمن۲۰۰۱,). البته معدودي از منابع نيز شخص ديگري به نام «متيوكل» را به عنوان مبدع اين اصطلاح معرفي مي كنند. (شرمن۲۰۰۳,)

“وب پنهان یا وب نامرئی” اشاره به یک مفهوم چند بعدی و گسترده دارد به شکلی که ارائه تعریفی گویا و کوتاه از آن را کمی دشوار می کند.
با این حال نام“ کریس شرمن و گری ﭘرایس ”به عنوان دو نفر از صاحب نظران اصلی دراین موضوع بیشتر از دیگران به چشم می خورد و تعریفی که آنان در سال ۲۰۰۱ از وب نامرئی ارائه کرده اند در اغلب منابع ذکر شده است. از آنجا كه بين وب نامرئي وموتورهاي كاوش در اينترنت ارتباط تنگاتنگي وجود دارد، لازم است نخست اشار ة مختصري به سازوكار موتورهاي كاوش كنيم.

ابزارهای کاوش که در وب ارايه می شود به دو گروه اصلی زير تقسيم بندی می گردد:

Search Engine    ( موتورهای جستجو)
Directory            (فهرست راهنما )

تفاوت اصلی دو گروه اشاره شده در اين است که:

اطلاعات پايگاه داده گروه اول را نرم افزارها جمع آوری می کنند، حال آنکه اين کار برای گروه دوم توسط انسانها انجام می شود.

فهرست هرگز از وجود سایت شما اطلاع نمی یابد مگر زمانی که شخصی آن را به وی معرفی نماید. بعد از معرفی است که ویراستار آن فهرست به سایت شما مراجعه نموده، در صورت رعایت قوانین فهرست و انتخاب گروه مناسب، سایت شما را به پایگاه داده فهرست اضافه می نماید.
شما باید سایت خود را با عنوان و توضیحی مناسب به فهرست ها معرفی نمایید و بهترین گروه ممکن را برای سایت خود در نظر بگیرید. این کار بسیار مهم است زیرا عموما فهرست ها همین عنوان و توضیح را به همراه آدرس صفحه اول سایت تان در پایگاه داده خود قرار می دهند.

اما در موتورهای جستجوگر وضع به گونه ای دیگر است؛ موتور جستجوگر می تواند از وجود سایت شما اطلاع یابد، اگر راه ورود آن فراهم شده باشد. در واقع نرم افزار موتور جستجوگر هر لحظه در حال وبگردی و به روز رسانی اطلاع قدیمی و همینطور افزودن اطلاعات جدید به پایگاه داده موتور جستجوگر است.
فهرست راهنما ( Directory ) : 
فهرست راهنما یا دایرکتوری که به آن فهرست راهنما نیز گفته می شود٬ سایتی است که صفحات و سایت های مربوط به موضوعات گوناگون علمی وغیرعلمی را شناسایی و به صورت دستی دسته بندی می کند. ازاین رو اطلاعات طبقه بندی شده درفهرست راهنما از کیفیت خوبی برخوردار است و نتایج نامربوط در بین آنها بسیار اندک می باشد. برای ﭘذیرش یک لینک به لیست موضوعات٬ معیارها وشرایط خاصی وجود دارد اما این معیارها و شرایط برای لیست های موضوعات مختلف٬ متفاوت است. بیشتر لیست ها دارای قابلیت جستجو هستند. 
 دو نوع فهرست راهنما وجود دارد:
۱-   فهرست های دانشگاهی وتخصصی که غالباً توسط متخصصین موضوعات مربوطه وبه منظور ﭘﺎسخگویی به نیازهای محققین ایجاد واداره می شود.
۲-   فهرست هایی که به صورت تجاری عمل می کنند و مخاطبانشان عموم مردم وهدفشان جذب هرچه بیشتر مراجعان می باشد.
بنابراین هنگام انتخاب فهرست راهنما باید توجه کرد که مطابق با نیاز جستجوگر باشد. بسیاری از مردم از فهرست های راهنما استفاده کافی را نمی برند و مستقیماً به سراغ موتورهای جستجو می روند. حال آنکه فهرست های راهنمای دانشگاهی دربرگیرنده مجموعه های به دقت انتخاب شده ای از سایت های با کیفیت بالا هستند. هنگام جستجوی سایت های با کیفیت بالا ٬ نباید فهرست های راهنما را فراموش کرد.
نکته ای که در هنگام انتخاب فهرست های راهنما باید مورد توجه قرار گیرد٬ سیاست ها ومعیارهای ﭘذیرش سایت ها درآن فهرست راهنما است. ضوابط ﭘذیرش سایتها درفهرست های راهنما بسیار متفاوت است و می تواند تا حد زیادی نشانگر اعتبار آن فهرست راهنما باشد. به جرأت می توان گفت بزرگ ترین و معتبرترین فهرست راهنمای اینترنت درحال حاضر open project directory  می باشد.که نشانی آن www.zdmo.org است. بسیاری از موتورهای جستجو مانند google وaltavista در دایرکتوری خود از همین فهرست راهنما استفاده می کنند.  
ازجمله فهرستهای راهنمای دیگر می توان به  www.about.com   و  www.yahoo.com  اشاره كرد. البته yahoo مثال خوبی برای فهرست موضوعات تجاری است وهیچ گاه نباید از آن ویا دیگر راهنماهای تجاری مشابه درتحقیقات جدی ومهم استفاده کرد. Infomine  از دانشگاه کالیفرنیا نیز مثال خوبی برای فهرست های راهنمای دانشگاهی است.

موتور های جستجو:

آمارها نشان می دهند که افراد بسیاری سفر در دنیای وب را با موتورهای جستجوگر آغاز می‌کنند و مراجعه به موتورهای جستجوگر چنان عادی شده است که جستجو کردن و کار با موتورهای جستجوگر، دومین فعالیت عمده کاربران در دنیای وب (بعد از ارسال و دریافت نامه های الکترونیکی) محسوب می شود.

موتورهاي كاوش، نرم افزارهاي كاربردي هستند كه براي جستجوي منابع اطلاعاتي در اينترنت و اينترانت ها مورد استفاده قرار مي گيرند. اين نرم افزارهاي كاربردي، تحت شبكه و در محيط وب قابل دسترس هستند و بر اساس كليد واژه ها و عبارات مورد نظر، جستجو را بر روي يك پايگاه اطلاعاتي انجام مي دهند و نتيجه را همراه با پيوندهايي به اصل موضوع ارائه مي كنند.

اين موتورهاي جستجو با هدف سهولت دسترسي به اطلاعات ابداع گرديدند و به عنوان پايگاه اطلاعاتي، از ساختار محتوايي نويني نسبت به پايگاه هاي اطلاعاتي سنتي برخوردارند.
دقت در ارایه نتایج جستجو چیزی است که کاربران وب همواره از موتورهای جستجوگر می خواهند.

اگر عبارت یکسانی در تمام موتورهای جستجوگر، جستجو شود هیچ کدام از آنها نتایج یکسانی را ارائه نمی‌دهند و با نتایج کاملا متفاوتی روبرو می‌شویم. تفاوت در ارائه نتایج جستجو در موتورهای جستجوگر از تفاوت آنها در الگوریتم (سیستم رتبه بندی) و بایگانی(index) داده‌ هایشان ناشی می‌شود. حتی اگر همه آنها از بایگانی داده یکسانی نیز استفاده کنند، بازهم نتایج جستجویشان متفاوت خواهد بود. هر موتور جستجوگری برای رده‌ بندی صفحات وب، از الگوریتم خاصی استفاده می‌کند که منحصر به خودش بوده و فوق‌العاده محرمانه می‌باشد. الگوریتم نیز مجموعه ای از دستورالعمل ها است که موتور جستجوگر به کمک آن تصمیم می‌گیرد که سایت ها را چگونه در خروجی‌اش مرتب کند.
حال اگر کاربری که دنبال چیزی می گردد کلماتی را جستجو کند، موتور جستجوگر در پایگاه داده ای که تشکیل داده است، ابتدا تمام صفحات مرتبط با موضوع جستجو شده را می یابد و سپس مرتبط ترین را به عنوان اولین نتیجه جستجو و بقیه صفحات را بر اساس میزان ارتباط بعد از آن در اختیار کاربر قرار می دهد. به عبارت دیگر اگر تعداد نتایج جستجو ۱۰۰۰ مورد باشد، سایت رده اول مرتبط ترین و سایت رده ۱۰۰۰ کم ارتباط ترین سایت به موضوع جستجو شده می باشد.
موتور های جستجو امکانات ویژه ای برای جستجوی عکس، فیلم، فایل های صوتی و اخبار دارند که به کاربر کمک شایانی برای سازمان یافته تر عمل کردن می دهد.

بخش های مجزای یك موتور جستجوگر عبارتند از  :

Spider(عنکبوت) :  عنكبوت با وارسي و پويش صفحه هاي وب، پيوند هاي موجود در هر صفحه به ديگر صفحات مربوط به آن صفحه را دنبال مي كند. اين روباتها معمولا هرچند وقت يكبار در اينترنت به جستجوي صفحات وب و ارتباط آن ها با صفحات ديگر مي پردازند و در پايان، آنچه را پيدا كرده اند به نمايه مي افزايند. گستردگي و عمق دسترسي به اطلاعات در هر موتورجستجو، بيش از هر چيز به ويژگي هاي نرم افزار خزندة آن بستگي دارد.
Crawler  ( نرم افزار خزنده يا روبات جستجوگر ) : پيوندهای وبی را دنبال می کند.
Indexer ( بایگانی کننده ) : يك پايگاه اطلاعاتي است كه اطلاعات نمايه سازي شده و مرتبط با صفحات يا سايت هاي وب در آنجا نگهداري مي شود و قابل بازيابي است.
Query processor : برنامه اي است كه در بين ميليون ها صفحة نمايه شدة موجود در يك موتور جستجو، مطابق با پرسش جستجوگر و استراتژي هاي جستجو عمل مي كند و اطلاعاتي را كه با موضوع مرتبط باشد بازيابي مي كند و نمايش مي دهد.
Ranker  ( سیستم رتبه بندی )

ساز وکار موتور های کاوش :

وقتي جستجويي در يک موتور جستجوگر انجام و نتايج جستجو ارايه مي شود، کاربران در واقع نتيجه کار بخش هاي متفاوت موتور جستجوگر را مي بينند،  موتور جستجو اطلاعات را از پايگاه اطلاعاتي خود مورد جستجو و بازيابي قرار مي دهد و اينطور نيست که همان لحظه اطلاعات را از اينترنت به دست آورد، بلكه از قبل اطلاعات را از اينترنت گرفته و در پايگاه خود ذخيره مي کند.
در ابتدا مرحله گردآوري اطلاعات صفحات وب را داريم. از طريق روباتهاي اطلاعاتي مي توانيم به جستجوي مستمر و مداوم اطلاعات در صفحات وب بپردازيم. از جمله روباتهاي اينترنت مي توانيم به  Spiderها و Crawler ها اشاره کنيم.
  • بازدید : 90 views
  • بدون نظر
این فایل در قالبPDFتهیه شده وشامل موارد زیر است:

با سلام گرم خدمت تمام دانشجویان عزیز و گرامی . در این پست دانلود پروژه و پایان نامه کارشناسی ارشد رشته مهندسی کامپیوتر  مروری بر داده کاوی با رویکرد وب سرویس کاوی را دراختیار شما عزیزان قرار داده ایم  . این پروژه پایان نامه در قالب ۱۴۷صفحه به زبان فارسی میباشد . فرمت پایان نامه به صورت ورد PDFقابل ویرایش هست و قیمت پایان نامه نیز درمقایسه با سایر فروشگاهها با قیمت مناسب در اختیار شما قرار میگیرد

از این پروژه پایان نامه آماده میتوانید در نگارش متن پایان نامه خودتون استفاده کرده و یک پایان نامه خوب رو تحویل استاد دهید
 دانشگاه آزاد اسلامی
واحد تهران جنوب
دانشکده تحصیلات تکمیلی
سمینار برای دریافت درجه کارشناسی ارشد “M.Sc”
مهندسی کامپیوتر – نرم افزار
عنوان :
مروری بر داده کاوی با رویکرد وب سرویس کاوی
واژه داده کاوی برای توصیف مجموعه فعالیتهای وسیعی مورد استفاده قرار می گیرد. دنیای مدرون امروز، دنیای اطلاعات است و ما با حجم بسیار وسیعی از داده ها سرکار داریم. برای رسیدن به اطلاعات باید این داده ها تحلیل و پردازش شوند تا اطلاعات از آنها استخراج شود . توسعه سریع و افزایش قابلیتهای و کاهش هزینه های ذخیره سازی منجر به ذخیره بسیار وسیع داده با هزینه ذخیره سازی پائینی شده است. وجود داده های زیادی بر روی وب سایتها، پایگاه داده ها، مالتی مدیا، وب سرویسها و … اخیرا استفاده از داده کاوی را از این منابع مد نظر قرار داده است. کاوش اطلاعات مفید که دانش مناسب را از پایگاه داده های وسیع استخراج می کند، به یکی از زمینه های مهم تحقیقاتی تبدیل شده است . وب کاوی یکی از زمینه های مهم تحقیقاتی در زمینه داده کاوی برای تعداد وسیعی از سرویسهای وب جهان گستر در سالهای اخیر تبدیل شده است. وب جهان گستر بصورت گسترده ای هم در زمینه ترافیک و هم در زمینه اندازه و پیچیدگی وب سایتها در حال گسترش است. این پیچیدگی، نیاز ما را به تحلیل استفاده وب سایت، چگونگی ساختار وب و محتوای منابع وب وادار ساخته است . تکنولوژی وب سرویس باعث افزایش نقش وب سرویسها در برنامه های اینترنتی بطور کلی و در زمینه تجاری به طور خاص شده است. از زمانی که وب سرویسها نقش مهم و فزاینده ای در تکنولوژی اطلاعات پیدا کرده اند، از سیستمهای سرویسگرا انتظار رشد و پیچیدگی روزافرون می رود. مانند تقاضای سیستمهای برای ابزارهای که اجازه تحلیل و نظارت بر سیستمهای سرویسگرا استفاده شده را می دهند . روشهای مختلفی برای داده کاوی و فرایند کاوی از وب سرویسها و تعاملات بین آنها برای تحلیل تعاملات وب سرویسها بین استفاده کننده گان و مهیا کننده گان و کشف ترکیب سرویهاست وجود دارد.
مقدمه
اخیرا توانایی های فنی بشر در تولید و جمع آوری داده ها به سرعت افزایش یافته است عواملی نظیر استفاده گسترده از کامپیوتر در کسب و کار، علوم، خدمات دولتی و پیشرفت در وسائل جمع آوری داده، از اسکن کردن متون و تصاویر تا سیستمهای سنجش از دور ماهواره ای، در این تغییرات نقش مهمی داشته اند. حجم بسیار بالای سایتهای طراحی شده و موجود در بستر وب؛ تنوع و حجم بالای اطلاعات موجود در آنها، تکنیکها و توزیع شدگی منابع به معظلی بزرگ در استفاده از این منابع تبدیل شده است. در واقع مشکل از آنجائی ناشی می شود که منابع به اندازه کافی موجود است، ولی بصورت خام و پخش شده در رسانه های مختلف و با حجم زیاد. مشکل اصلی دربدست آوردن دانش موجود در آنها و اینکه دانش مورد نیاز ما در چه منابعی و به چه صورتی واقع شده است؛ می باشد . این رشد انفجاری در داده های ذخیره شده، نیاز مبرم به وجود تکنولوژی های جدید و ابزارهای خودکاری را ایجاد کرده که به صورت هوشمند به انسان یاری رسانند تا این حجم زیاد داده را به اطلاعات و دانش تبدیل کند: داده کاوی به عنوان یک راه حل برای این مسائل مطرح می شود. بطورغیر رسمی داده کاوی فرآیندی است، خودکار برای استخراج الگوهایی که دانش را بازنمایی می کنند، که این دانش به صورت ضمنی در پایگاه داده های عظیم، انباره داده، صفحات وب، منابع توزیع شده و دیگر مخازن بزرگ اطلاعات، ذخیره شده است. داده کاوی تکنیکی است که بطور همزمان از چندین رشته علمی نظیر: تکنولوژی پایگاه داده، هوش مصنوعی، یادگیری ماشین، شبکه های عصبی، آمار، شناسایی الگو، سیستم های مبتنی بر دانش، حصول دانش، بازیابی اطلاعات، محاسبات سرعت بالا و بازنمایی بصری داده بهره می برد.
داده کاوی در اواخر دهه ۱۹۸۰ پدیدار گشته، در دهه ۱۹۹۰ گامهای بلندی در این شاخه از علم برداشته شد و انتظار می رود در این قرن به رشد و پیشرفت خود ادامه دهد. کشف دانش از منابع داده فرایند شناسایی درست، ساده، مفید، و نهایتا الگوها و مدلهای قابل فهم در داده ها می باشد. داده کاوی، مرحله ای از فرایند کشف دانش می باشد و شامل الگوریتمهای مخصوص داده کاوی است، بطوریکه، تحت محدودیتهای مؤثر محاسباتی قابل قبول، الگوها و یا مدلها را در داده کشف می کند. به بیان ساده تر، داده کاوی به فرایند استخراج دانش ناشناخته، درست، و بالقوه مفید از داده اطلاق می شود. تعریف دیگر اینست که، داده کاوی گونه ای از تکنیکها برای شناسایی اطلاعات و یا دانش تصمیم گیری از قطعات داده می باشد، به نحوی که با استخراج آنها، در حوزه های تصمیم گیری، پیش بینی، پیشگویی، و تخمین مورد استفاده قرار گیرند. داده ها اغلب حجیم ، اما بدون ارزش می باشند، داده به تنهایی قابل استفاده نیست، بلکه دانش نهفته در داده ها قابل استفاده می باشد. به این دلیل اغلب به داده کاوی، تحلیل داده ای ثانویه  گفته می شود. داده کاوی از منابع توزیع شده متفاوت تر از داده کاوی از منایع متمرکز است. مشکل داده کاوی از منابع توزیع شده (مانند وب) در محتویات غیر ساخت یافته و یا شبه ساخت یافته این منابع است. منابع توزیع شده، برخلاف منابع متمرکز، دارای یک ساختار استاندارد مناسب نیستند و از سبک و شیوه نگارشی متنوع محتوائی نسبت به آنچه که در مجموعه منابع متمرکز وجود دارد، پیروی می کنند . فصل اول این سمیناریک مرور سریع بر معرفی داده کاوی؛ مدلها و روشهای موجود در آن پرداخته است، فصل دوم مدل ها و الگوریتم های داده کاوی به صورت اجمالی برسی شده؛ در فصل سوم مدل وب کاوی مطرح شده است در این فصل تکنیکها و الگوریتمهای مختلف وب کاوی برسی شده است، در این بخش الگوریتمهای داده کاوی از وب نیز معرفی شده است در فصل چهارم وب سرویس و معماری وب سرویس و XML و چگونگی داده کاوی از وب سرویسها مطرح شده است. در فصل چهارم یکسری ایده ها و سوالاتی در رابطه با وب سرویس کاوی مطرح شده است.

  • بازدید : 31 views
  • بدون نظر
دانلود رایگان پایان نامه طراحي وب سرويس-خرید اینترنتی پایان نامه طراحي وب سرويس-دانلود رایگان مقاله طراحي وب سرويس-پایان نامه طراحي وب سرويس-دانلود رایگان سمینار طراحي وب سرويس
این فایل در ۵۵صفحه قابل ویرایش تهیه شده وشامل موارد زیر می باشد:
در باره لزوم کسب دانش ومهارت در زمینه کار ویا حتی ساخت وب سرویس ها در مقدمه گزارش کاری این پروژه مطلبی هرچند کوتاه ارائه خواهد شد  در این مقاله سعی بر اینست که  ملب با جزئیات کامل تری نسبت به آنچه قبلا در معرض نقد وبررسی قرار گرفته عرضه شود.

براي ساده کردن پردازش ها برنامه هاي غير متمرکز ( Enterprise ) بايد با يکديگر ارتباط داشته باشند و از داده هاي اشتراکي يکديگر استفاده کنند . قبلا ً اين کار بوسيله ابداع استاندارد هاي خصوصي و فرمت داده ها به شکل مورد نياز هر برنامه انجام مي شد . اما دنياي وب و XML ( تکنولوژي آزاد براي انتقال ديتا ) انتقال اطلاعات بين سيستم ها را افزايش داد . وب سرويس ها در واقع نرم افزارهايي هستند که از XML براي انتقال اطلاعات بين نرم افزارهاي ديگر از طريق پروتوکول هاي معمول اينترنتي استفاده مي کنند . به شکل ساده يک وب سرويس از طريق وب اعمالي را انجام مي دهد (توابع يا سابروتين ها ) و نتايج را به برنامه ديگري مي فرستد . اين يعني برنامه اي در يک کامپيوتر در حال اجراست ، اطلاعاتي را به کامپيوتري مي فرستد و از آن درخواست جواب مي کند ، برنامه اي که در آن کامپيوتر دوم است کارهاي خواسته شده را انجام مي دهد و نتيجه را بر روي ساختارهاي اينترنتي به برنامه اول بر مي گرداند . وب سرويس ها مي توانند از پروتکول هاي زيادي در اينترنت استفاده کنند .

  در سیستم های قدیمی تر و حتی شاید در بیش از نود درصد سیتم های فعلی,  اصول clientserver – programing  بر مبنای  request – response  از طریق یک سری port  ها ,  protocol ها واستانداردهای مشخص  browser ها نهاده شده است . بدین ترتیب که درخواست شما از طریق یک  browser  به server  ارسال می گردد web server  آن را بنا به نیاز بهapplication Server  واگذار می کند .  app server آن را پردازش می کند و از طریق web server   ان را به client  بر می گرداند . مثلا اگر درخواست شما یک request   به صفحات دینامیکی مثل   .NETیا  PHP باشد  web server  که در اینجا یک   IIS یا  Apacheمی باشد   request را به app server   واگذار می کند که پس از تفسیر , این اطلاعات به فرمت  html  در اختیار   client  قرار می گیرد .  این سیستم جوابگوی بسیاری از نیازها نیست برای مثال  request  ها فقط از طریق browser  ها انجام می شود ویا همه

اطلاعات روی یک  server ویا روی سرورهای تحت اختیار موجود می باشد که این در عمل ممکن نیست  بسیاری ازبرنامه ها تنها روی بعضی از سرورها قرار دارند وامکان دسترسی با نصب آنها روی سرورهای دیگر نیست به علاوه به دلیل مشکلات امنیتی نمی توان به همه اجازه 

دسترسی به database  ها را داد و از همه مهمتر برنامه های تحت سرور هر کدام در یک  platform و با زبانی خاص نوشته شده اند که امکان دسترسی به آنها وجود ندارد.

با ایجاد وسایل گوناگون مثل pda ها , گوشی های تلفن , تلویزیون ها ی دیجیتال و … که قابلیت اتصال به شبکه را دارا هستند و همچنین نیاز   application های   desktopبرای ارتباط با سرور این نیاز بیشتر احساس شد که با شکل گیری plattform های بسیار قوی مانند J2EE  درسمت سرور  اصول  web – services رقم زده شد.

یک وب سرویس نوعی کامپوننت تحت وب است که به application  هایی که از ان استفاده می کنند این امکان را می دهد تا بتوانند از متدهای این وب سرویس استفاده کنند بهتر است وب سرویس را با یک مثال توضیح دهم :

فرض کنید شما در وب سرویس خود می خواهید آب و هوای مناطق جغرافیای مختلف را داشته باشید برای پیاده سازی چنین کاری شما دو روش در پیش دارید خودتان وضعیت آب وهواهای مختلف را از سایت های گوناگون جمع اوری ور در web application  خود قرار دهید یا از یک وب سرویس که اب و هوای مناطق مختلف را می دهد استفاده کنید البته وب سرویس ها توانایی های بسیار گسترده ای در ارتباط با  data base ها دارند که بعدا به ان خواهیم پرداخت

 1-2مزیت ها ی استفاده از وب سرویس ها

وب سرويس داراي خواصي است که آن را از ديگر تکنولوژي و مدل هاي کامپيوتري جدا مي کند ، Paul Flessner ، نايب رييس مايکروسافت در dot NET Enterprise Server چندين مشخصه براي وب سرويس در يکي از نوشته هايش ذکر کرده است ، يک ، وب سرويس ها قابل برنامه ريزي هستند . يک وب سرويس کاري که مي کند را در خود مخفي نگه مي دارد وقتي برنامه اي به آن اطلاعات داد وب سرويس آن را پردازش مي کند و در جواب آن اطلاعاتي را به برنامه اصلي بر مي گرداند . دوم ، وب سرويس ها بر پايه XML بنا نهاده شده اند . XML و XML هاي مبتني بر SOAP يا Simple Object Access Protocol تکنولوژي هايي هستند ک

به وب سرويس اين امکان را مي دهند که با ديگر برنامه ها ارتباط داشته باشد حتي اگر آن برنامه

ها در زبانهاي مختلف نوشته شده و بر روي سيستم عامل هاي مختلفي در حال اجرا باشند . همچين وب سرويس ها خود ، خود را توصيف مي کنند . به اين معني که کاري را که انجام مي دهند و نحوه استفاده از خودشان را توضيح مي دهند . اين توضيحات به طور کلي در WSDL يا Web Services Description Language نوشته مي شود . WSDL يک استاندارد بر مبناي XML است . به علاوه وب سرويس ها قابل شناسايي هستند به اين معني که يرنامه نويس مي تواند به دنبال وب سرويس مورد علاقه در دايرکتوري هايي مثل UDDI يا Universal Description , Discovery and Integration جستجو کند . UDDI يکي ديگر از استاندارد هاي وب سرويس است .

عدم نیاز به کد نویسی مجدد امکانات و امتیازات بزرگی را در کار با وب سرویس ها  فراهم می کند .البته شاید بعضی از دوستان که با مفاهیم کلاس کار کرده اند بگویند که این کار در کلاس ها هم امکان پذیر است اما در برنامه نویسی با کلاس شما برای استفاده از هرکلاس باید تک تک کلاس ها را add کنید اما در اینجا فقط کافیست متدها را بنویسید. درنوشتن کلاس شما ممکن است در کار باapplication  ها ی مختلف به روش های مختلف با کلاس های متفاوتی کارکنید یعنی کار شما هربار متفاوت از کار قبلی است که این خوانایی برنامه را پایین می اورد و همچنین توسعه را مشکل می سازد اما در این سیستم ما در یک وب سرویس و با متدهای خاص همان وب سرویس کار می کنیم حالا در هرجا و در هر  application ی که قرار داریم .

وقتی با وب سرویس کار می کنیم یک سری استانداردها نیز  وجود دارند که همه ی  application  های موجود  با ان کار می کنند و در نتیجه  reusability  بالا می رود . که این خود مزیت بزرگی به شمار می رود .

 بعنوان نمونه از وب سرویس هایی که در طول روز به چند صد هزار درخواست پاسخ می دهند می توان به عناوین زیر اشاره کرد:

۱-  کل نرم افزار  yahoo messenger از طریق  web service های ایجاد شده توسط weblogic  پیاده سازی شده است


عتیقه زیرخاکی گنج