مارکتینگ پروژه 20 | مرجع فایل های دانلودی - پروژه آماده - پروژه دانشجویی - پاورپوینت آماده
0

هیچ محصولی در سبد خرید نیست.

ترجمه مقاله طراحی و پیاده سازی Document clustering توزیع شده بر پایه MapReduce

ترجمه مقاله طراحی و پیاده سازی Document clustering توزیع شده بر پایه MapReduce

دسته بندی مقالات ترجمه شده isi
فرمت فایل docx
حجم فایل 231 کیلو بایت
تعداد صفحات 6
پس از پرداخت، لینک دانلود فایل برای شما نشان داده می شود

طراحی و پیاده سازی Document clustering توزیع شده بر پایه MapReduce

Design and Implement of Distributed Document Clustering Based on MapReduce

چکیده:

در این مقاله ما توضیح میدهیم که Document Clustering برای مجموعه های بزرگ بوسیله Map-Reduce چگونه میتواند به طور موثر اجرا شود. Hadoop یک چارچوب مناسب و انعطاف پذیر برای محاسبات توزیع شده خوشه ای از ماشین آلات کالا پیاده سازی و فراهم می کند. در این مقاله طراحی و پیاده سازی tfidf و الگوریتم K-Means در Map Reduce ارائه شده است. از همه مهمتر، کارایی و اثربخشی از الگوریتم بهبود یافته است و در نهایت، ما در مورد برخی نتایج بحث های مرتبطی خواهیم داشت.

واژه های مرتبط : Map-Reduce tfidf K-Means clustering

مقدمه :

با توسعه سریع اینترنت، حجم عظیمی از اسناد باید در یک زمان کوتاه پردازش شود. تحقیق در وب کاوی در مورد روش مقیاس پذیر و قابل انطباق با اسناد جمعی تمرکز دارد [1]. ذخیره سازی و محاسبات جرم داده های اسناد در یک سیستم توزیع شده یک روش جایگزین است [2]. در محاسبات توزیع شده، مشکل تقسیم وظایف است، به طوری که هر کدام توسط یک کامپیوتر حل شود. با این حال، بسیاری از مشکلات مانند برنامه ریزی کار، تحمل خطا و ارتباط بین دستگاه برای برنامه نویسان با تجربه کم، با سیستم موازی و توزیع شده بسیار مشکل است. در این مقاله ما تجربه ها و یافته های Document Clustering را بر اساس Map-Reduce توصیف می کنیم. Map-Reduce [3] ، یک چارچوب است که برنامه نویسان تنها نیاز به مشخص نمودن تابع Map و Reduce دارند تا وظیفه های بزرگ را به صورت موازی در مورد خوشه های بزرگ بر روی ماشین آلات کالا اجرا نمایند. در مرحله پیش پردازش سند ، ما یک الگوریتم تکرار شونده برای محاسبه وزن tfidf در Map-Reduce به منظور ارزیابی مهم بودن یک دوره برای یک سند در یک مجموعه طراحی میکنیم. سپس یک Mean Cluster در Map Reduce اجرا می شود تا تمام اسناد رو به k خوشه تقسیم کند که هر سند متعلق به یک خوشه با همین معنا است. از همه مهمتر، در می یابیم که نادیده گرفتن شرایط با بالاترین فرکانس سند نمی تواند سرعت الگوریتم ما در Map-Reduce را بهبود ببخشد ، اما دقت خوشه سند را کمی بهبود می بخشد. آزمایش نشان می دهد که روش مار رشد تقریبا خطی در زمان مورد نیاز در حال اجرا با افزایش اندازه مجموعه برای مجموعه های حاوی چند ده هزار سند خواهد داشت.

II. Map Reduce و Hadoop

پس از پرداخت، لینک دانلود فایل برای شما نشان داده می شود

محمد

من نویسنده این سایت هستم و خوشحالم که در کنار مدیریت سایت میتوانم هر روز تجربیات خودم رو افزایش دهم تا به ارائه خدمات بهتری بپردازم.

مطالب زیر را حتما بخوانید:

قوانین ارسال دیدگاه در سایت

  • چنانچه دیدگاهی توهین آمیز باشد و متوجه اشخاص مدیر، نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  • چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  • چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  • چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

لینک کوتاه: