آنالیز وب در زمینه تجاری به طور خاص به معنای استفاده از دادههای جمعآوریشده از وب برای تعیین این امر است که کدام جنبههای وبسایت در جهت اهداف یک کسب و کار معین عمل میکنند.دادههای جمعآوریشده تقریبا همیشه شامل گزارشهای "ترافیک وب" هستند. این گزارشها ممکن است حاوی میزان پاسخ ای - میل، دادههای کمپینهای میل مستقیم، اطلاعات فروش، دادههای کارکرد کاربران مثلا نمودار "هیت کلیکها" و سایر اندازهگیرهای مرسوم باشند.
دو رویکرد تکنولوژیک
دو رویکرد تکنولوژیک اصلی برای جمعآوری دادههای آنالیز وب وجود دارد:
- اولین روش "آنالیز لاگفایل" (logfile analysis) است. در اين روش، لاگفایلها را -که وب سرورها همه عملیاتشان را در آنها ثبت میکنند- میخوانند.
- روش دوم "تگدادن به صفحات" (page tagging) است که از "جاوا اسکریپت" روی هر صفحه استفاده میکنند تا هنگامی که یک مرورگر وب بر روی یک صفحه عمل میکند، یک سرور ثالث را خبردار کند.
آنالیز لاگفایل
وبسرورها همیشه همه عملیاتشان را در یک لاگفایل ثبت میکنند. به زودی مشخص شد که این لاگفایلها که قابل خواندهشدن بهوسیله یک برنامه هستند، میتوانند دادههایی درباره محبوبیت یک وبسایت فراهم کنند. به این ترتیب نرمافزارهای آنالیز لاگفایل ظهور کردند.
در اوائل دهه 1990 آمار وبسایت عمدتا متشکل از شمارش تعداد تقاضاهای ارائهشده مراجعین به وب سرور بود. این رویکرد منطقی مینمود چرا که هر وبسایت اغلب شامل یک فابل منفرد HTML بود.اما با وارد شدن گرافیک به HTML [گرافیک وب] و وبسایتهایی که چندین فایل HTML را در بر میگرفتند، این شمارش دیگر چندان مفید نبود.اولین لاگ آنالایزر واقعی تجاری در سال 1994 بوسیله IPRO ساخته شد.دو واحد اندازه گیری هم در میانه دهه 1990 برای تعیین دقیقتر فعالیت انسانی روی وب سرورها ارائه شدند. این دو واحد "صفحه دیدهشده "(page view) و "بازدیدکننده صفحه (page visit or session) بودند.
"صفحه دیدهشده" به معنای تقاضای یک وب سرور برای یک صفحه، در مقابل یک گرافیک، است، اما "بازدیدکننده صفحه" به معنای یک رشته از تقاضاها از یک مرجع با هویت منحصربهفرد است که پس از مدت معینی از عدم فعالیت، معمولا 30 دقیقه، منقضی شده است.
"صفحات دیدهشده" و "بازدیدکنندگان صفحه" هنوز معیارهای اندازهگیری هستند که به طور رایج به نمایش درمیآیند، اما اکنون آنهارا هم ابزارهایی غیردقیق محسوب میکنند.
ظهور "اسپایدرها و روباتهای" موتورهای جستجو [چطور موتورهاي جستجو كار ميكنند؟] در اواخر دهه 1990 به همراه "وب پروکسیها" و "آدرسهای IP به طور فعال اختصاصیابنده" برای شرکتهای بزرگ و ISPها، شناسایی بازدیدکنندگان منحصر به فرد انسانی از یک وبسایت را مشکلتر کرد.
استفاده گسترده از "کشهای وب" نیز مانعی بر سر راه "تحلیل لاگفایل" پدید آورد. اگر شخصی یک صفحه را دوباره ببیند، تقاضای دوم از کش مرورگر (browser cache) پاسخ داده میشود، و تقاضایی در وب سرور دریافت نخواهد شد.این امر به معنای آن است که مسیر كليك شخص در سایت از دست میرود.با پیکربندی وب سرور میتوان بر "کشکردن" (caching) غلبه کرد، اما این کار ممکن است کارکرد بازدیدکننده از وبسایت را دچار اشکال کند.
تگ دادن به صفحه
نگرانیها در مورد دقت تحلیل لاگفایل با وجود کششدن، و گرایش به انجام آنالیز وب به عنوان یک سرویس سفارشی دومین روش جمع آوری دادهها را پدید آورد: تگدادن به صفحه یا “Web bugs”در میانه دهه 1990 به طور شایع شمارندههای وب را در وبسایتها مشاهده میکردیم - تصاویری درون یک صفحه وب که تعداد دفعاتی را به نمایش میگذاشتند که آن تصویر درخواست میشد و به این ترتیب تخمینی از شمار بازدیدها از آن صفحه را به دست میداد.
در آخر دهه 1990 این تصویر قابل مشاهده به یک تصویر کوچک غیرقابل مشاهده تحول یافت که با استفاده از جاوا اسکریپت، به همراه درخواست تصویر؛ اطلاعات معینی درباره صفحه و بازدیدکننده را هم انتقال میداد.بعد یک شرکت آنالیزکننده وب میتوانست این اطلاعات را از راه دور پردازش و آماری تفصیلی را تولید کند.سرویسهای آنالیز وب همچنین فرآیند تخصیصدادن "کوکی" (Cookie) به کاربران را هم انجام میدهند و به این ترتیب میتواند آنها را حین بازدید و بازدیدهای بعدی به طور انحصاری شناسایی کنند.
با رواج استفاده از سلوشن"آژاکس"، شیوه جایگزینی برای کاربرد یک تصویر غیرقابل مشاهده ایجاد شده است: استفاده از فراخوان سرور از سوی صفحه اجراشده.
در این شیوه هنگامی که صفحه روی مرورگر وب اجرا میشود، یک قطعه کد آژاکس، سرور را احضار میکند و اطلاعات مربوط به مرجع را به آن منتقل میکند؛ بعد این اطلاعات را یک شرکت آنالیز وب جمعآوری میکند.
:: موضوعات مرتبط:
,
,
:: بازدید از این مطلب : 1013
|
امتیاز مطلب : 17
|
تعداد امتیازدهندگان : 6
|
مجموع امتیاز : 6