Пробуємо прогнозувати трафік: після тривалого аналізу
Довго не тривала ланцюжок статей про прогнозування трафіку, як і інших постів теж не було. Інші статті не публікувалися, оскільки хотілося не розривати серію і щоб всі статті йшли одна за одною, винятком з'явився тільки вже завершився конкурс BestMasterіZація , але іншого вибору не було - треба було писати. Тепер до суті нашого аналізу та аналітики.
Що було зроблено?
Я перебрав дуже багато думок у голові про те, як в рамках своїх проектів і проектів своїх клієнтів зробити якомога більш масштабний аналіз ключових фраз. Оскільки сервісом Google Analytics я користуюся вже не перший рік і сайти там "обслуговуються" теж не перший рік, то для кожного сайту можна було зібрати всі фрази, за якими приходили з пошуку за весь проміжок часу.
Таким чином, я зібрав фрази на теми: туризм, весілля, нерухомість, автомобілі, кіно, жіночі сайти, еротика, будівельні матеріали, меблі, SEO і т.д. Всього для експерименту було притягнуто 40 хороших, з відносно середньою відвідуваністю, сайтів та їх 428000 пошукових фраз.
З усіх зібраних фраз довелося вибирати окремі, оскільки по самому низько відвідуваного сайту було понад 2500 пошукових фраз, а вся маса аналізу не підлягає. Відбиралися вони так: спочатку видалили всі оптимізаторські фрази, фрази з помилками, випадкові якісь фрази - тобто так, щоб залишалися тільки адекватні, хороші фрази. Після цього етапу всі фрази перемішали по їх популярності (визначалося кількістю показів по Google - головне потрібно було їх просто впорядкувати, на суть експерименту жодним чином не впливає) і починаючи з їх середини з кроком в 10 фраз вправо і вліво (щоб були і НЧ і ВЧ, а в загальній масі - СЧ фрази) відбиралися в окремий список, який був вже остаточним для тривалого аналізу.
Зусиллями всіх наших операцій над фразами ми відібрали 40000 абсолютно різних фраз, починаючи з самих НЧ закінчуючи цілком солідними ВЧ фразами, на різні тематики, які були наведені вище, за різними типами: тобто фрази, які відносяться до транзакційних, навігаційним та інформаційним запитам (читати тут ).
За відібраними 40000 фразам щодня протягом двох місяців визначалися позиції за різними (своїм) гео-направленням. Наприклад, регіон перевірки позицій визначався за накладеним даними на карту в Google Analytics - бралися два лідируючих регіону. Всі дані по позиціях зберігалися, наводилися до середнього значення, що логічно - всі дані усереднені.
Після закінчення експериментального періоду по кожній з усіх фраз по Google Analytics було підтверджено, яка кількість переходів було з пошуку, тобто досліджувався виключно organic-трафік. Фрази, в яких середня позиція за весь час була>10 відсіялися, до уваги бралися тільки фрази, які перебували в ТОП-10, при цьому вони розбилися на 10 груп, переходи по них підсумували, а й у загальну суму були складені покази по версії Яндекса, щоб вивести одну загальну, середню цифру.
Чим було зроблено?
Для більш детального аналізу отриманих фраз нам не підходили такі сервіси, як Яндекс.Вебмастер, http://www.seorate. ru / , http://netchart.ru/ і навіть в деякій мірі Google Analytics був безпорадний. Як добре, що Аріна люб'язно надала Pro рахунок у http://ru.semrush.com/ . З його допомогою ми переглянули кожен аналізований сайт, наприклад статистика для блогу - http:// ru.semrush.com/info/nodar.name + (by + organic) . Як раз нас і цікавлять тільки ключові слова з пошукової видачі. У безкоштовному доступі нічого цікавого побачити, практично, не можна, тому рекомендую придбати собі Pro аккаунт і проаналізувати хоча б свої сайти, щоб вичавити з них ще більше, ніж зараз виходить.
Позиції, традиційно, визначалися semonitor з проксі-листом в 50 IP-адрес різних країн, переважно Росії та Україні.
Єдине, в чому була "запара" - це експорт фраз з Google Analytics. Тоді фрази були зібрані самописні php-парсер, який потрібно було постійно підштовхувати, тому що він постійно втомлювався і відмовлявся працювати, але з горем навпіл все було зроблено. Вчора, до речі, хотів поцікавитися, яким чином можна зробити експорт фраз із GA в XLS (CSV) , але ніхто так і не відповів. Звичайно, для мене це вже не актуально, але іноді якась програмка чи якийсь оптимальний спосіб експорту просто необхідний для економії часу, щоб не робити це все руками.
Що отримали у підсумку?
Щоб довго ще раз не розповідати, як важко було все це організувати, відсортувати, перевірити і т.д. - Хочу відразу привести таблицю, яка була отримана для розподілу трафіку у видачі ТОП-10:
Номер позиції | Відсоток кліків |
1 позиція | 27-32% |
2 позиція | 16-19% |
3 позиція | 9-12% |
4 позиція | 8-9% |
5 позиція | 5-8% |
6 позиція | 5-8% |
7 позиція | 4-6% |
8 позиція | 3-5% |
9 позиція | 3-4% |
10 позиція | 4-5% |
Що цікавого?!
Якщо порівняти з тими результатами, які були наведені раніше на основі різних експериментів і аналізів, то з результатами по експерименту з Google взагалі ніяк нічого не в'яжеться. За те там же є результати експериментів по Яндексу і за типами пошукових запитів , з якими наші результати цілком порівнянні. Звичайно, вони різняться, але вони дуже близькі.
Найбільша схожість результатів нашого експерименту і аналізу спостерігається з аналізом Сергія Кокшарова - тут різниця в 1 -2%, що я вважаю дуже великою точністю (саме в збігу даних). До речі, це є дуже цікавим фактом навіть з того боку, що йшли ми з ним різними шляхами, у нього був набагато простіше аналіз по панелі Яндекс.Вебмастер, у мене більш масштабний, з великою кількістю сайтів, фраз, даних, періодом проведення, а результати практично однакові.
Мене вже рік не залишає думка написати програму, яка буде щоденно парсити мій Google Analytics і відразу по кожній фразі перевіряти її позицію, дивитися скільки людей перейшло на сайт і вносити це в базу. Маючи декілька сотень відвідуваних сайтів в радіусі дії цієї програми - можна отримати дуже корисну статистику і, як завжди, дані для аналізу - їжа для роздумів.
Дорогі друзі, можна сказати, що ми вже підійшли до фіналу. Аналізувати більше нічого, я думаю, ми і без цього провели величезну роботу: починаючи від підбору фрази, розуміючи які цифри звідки беруться і закінчуючи остаточним розкидом розподілу часток склікування. Звичайно, хотілося б ці коридори по кожній позиції максимально звузити, але мені, поки що, навіть нічого і не підказує, як це зробити. Тому нам залишається тільки зібрати чинники, які грають у той чи інший бік з розподілу кліків і розглянути їх більш детально. Таким чином, хочу сказати, що буде ще одна стаття з тими самими чинниками і потім завершальна стаття нашого марафону, в якій будуть підведені підсумки, розглянуто коротко кожен етап, ідеалізація потоку (як можна все поставити на конвеєр), побудова мрій і їхнє руйнування.
Залишайтеся з нами на хвилі, якщо хочете знати більше про прогнозування трафіку! :)
Опубліковано: 06/05/11 @ 10:19
Розділ Блоги Пошуковики
Рекомендуємо:
З Різдвом! | Мастерплан з розкручування сайту
Корисний інструмент карти GOOGLE
Вивчаємо молоді сайти з Топ. Частина 3. Накручений користувальницький фактор або закрита сітка сателітів?
Дайджест тижня, 7 січня
Вивчаємо молоді сайти з Топ. Частина 2. Торжество рерайта і перелінковки.