|
Qayta ishlash
|
bet | 4/5 | Sana | 13.05.2024 | Hajmi | 248,25 Kb. | | #228978 |
Bog'liq hadoop mapreduce orqali katta hajmli ma lumotni parallel qayta ishlashrasm. Java Corega asoslangan qayta ishlash uchun sarflangan vaqt
Quyidagi rasmda esa Hadoop yordamida parallel hisoblashlarga asoslangan qayta ishlash uchun sarflangan vaqt va boshqa resurslarni ko‟rishimiz mumkin.
rasm. Hadoop orqali parallel qayta ishlash uchun sarflangan vaqt.
XULOSA
Katta hajmli ma‟lumotni parallel hisoblashlar yordamida qayta ishlash mavzusiga bag‟ishlangan ushbu maqolani yozish jarayonida biz quyidagilarni amalga oshirdik:
Apache Hadoop dasturini kompyuterimizga o‟rnatdik va sozlab oldik
Katta hajmli ma‟lumotni topib, uni o‟zimizga zarur formatga o‟tkazdik
Katta hajmli ma‟lumotni taqsimlangan fayl tizimlarida saqlab oldik
Katta hajmli ma‟lumotni Java Core asoslangan ananaviy usulda qayta ishlab, natija oldik
Katta hajmli ma‟lumotni parallel hisoblash yordamida qayta ishlab, natijalar
oldik
Olingan natijalarni qiyosiy solishtirish asosida xulosalar chiqardik.
Ushbu o‟tkazilgan tajribaning natijalariga asoslanib quyidagilarni xulosa qilish
mumkin:
Katta hajmli ma‟lumotni Java Core asoslangan ananaviy usulda qayta ishlash mumkin, lekin juda ko‟p hisoblashlarni va juda ko‟p vaqtni talab qiladi;
Katta hajmli ma‟lumotni Hadoop yordamida parallel qayt ishlash mumkin, bu juda samarali va bu hisoblashlar kam vaqt talab qiladi;
Ayni bir hil topshiriqni Java Core asoslangan ananaviy usuldagi qayta ishlash va Hadoop yordamida parallel qayt ishlashdan bir hil natida olish mumkin, lekin hisoblash uchun sarflangan vaqt bo‟yicha katta farq mavjud;
Hadoop yordamida parallel qayt ishlash uchun sarflangan umumiy vaqt 13 948 ms;
Java Core asoslangan ananaviy usuldagi qayta ishlash uchun sarflangan vaqt 177 769 ms;
Hisoblash vaqti bo‟yicha Hadoopga asoslangan parallel hisoblash ananviy hisolashdan taxminan 13 marta tezroq ishlaganini ko‟rishimiz mumkin.
|
| |