Нова опція URL Parametrs в Google Webmasters Tools

Якщо у Вашого сайту є параметри URL-адрес, що створюють потенційні проблеми з дубльованим контентом, спробуйте нову опцію URL Parameters в Google Webmaster Tools.

Опції Parameter Handling (Обробка параметрів) більше немає за адресою Site configuration>Settings section в Webmaster Tools . Нічого страшного, її просто перейменували в URL Parametrs (Параметри URL) і додали їй нові функції. Конфігурація URL параметрів, зроблена з урахуванням функцій старої версії, буде автоматично відображатися в новій.

Перш, ніж розповісти все цікаве, що можна зробити за допомогою Параметрів URL, давайте згадаємо, навіщо потрібна ця опція.

Коли потрібно використовувати URL Параметри

Параметри URL допоможуть вам контролювати, які адреси на Вашому сайті повинні скануватися Googlebot, залежно від параметрів цих адрес. Це хороший спосіб заборонити сканування дубльованого контенту на вашому сайті.

Однак цю функцію потрібно використовувати, тільки якщо ви впевнені в параметрах URL вашого сайту. Інакше можна помилково закрити деякі адреси для індексації, зробивши контент невидимим для робота.

Новинки

На додаток до вказівкою дій щодо індексації окремого параметра, тепер можна описати і його поведінку. Можна вказати - чи зраджує параметр вміст сторінки. Якщо не зраджує, робот буде вибирати адреси з типовим значенням для цього параметра та індексувати їх.

Якщо параметр не змінює зміст, будь-який обраний значення однаково добре. Але якщо він змінює зміст сторінки, можна вказати роботу один з чотирьох можливих способів сканування з цим параметром:

Також є можливість додавати власні значення, які будуть використовуватися з третім варіантом; тобто, більше немає обмеження по стандартному списку значень. За бажанням можна вказати завдання параметра: сортування, нумерація сторінок, визначення вмісту.

Одне з останніх поліпшень - відображення (як приклад) адреси сайту, просканувати роботом, який містить конкретний параметр.

З чотирьох варіантів сканування, перерахованих вище, No URL - новий, і заслуговує особливої ??уваги. Цей варіант має найбільші обмеження і пріоритет з налагодження параметрів для будь-якого заданого URL.

Це означає, що якщо адреса містить параметр, встановлений в «No URL», він ніколи не буде скануватися, навіть якщо інші параметри встановлені на Every URL. Другим за обмеженням є Only crawl URLs with value = x.

Використання функції

На прикладах.

Колись давно існував магазин fairyclothes.example.com. Сайт магазину використовував параметри в своїх адресах, і те ж саме зміст був доступним через кілька URL-адрес.

Одного разу власник магазину зауважив, що надлишок адрес може заважати роботу повністю просканувати сайт. Тому він послав свого помічника, Любителя Задавати Питання (ЛЗВ) до Великого Фіксованому Чарівникові (ВСВ) за консультацією, як змусити робота якнайменше сканувати дубльований контент.

Чарівник запропонував йому таку конфігурацію:

Любитель, за своєю природою, почав задавати питання:

ЛЗВ : Ви дали вказівку роботу вибирати зразок URL для trackingId (значення, яке буде вибрано роботом). Чому не вибрати опцію Only URLs with value = x і значення самостійно?

ВСВ: під час індексації робот Google натрапив на наступні URL, пов'язані з вашим сайтом:

1. fairyclothes.example.com/skirts /? trackingId = aaa123
2. fairyclothes.example.com/skirts /? trackingId = aaa124
3. fairyclothes.example.com/trousers /? trackingId = aaa125

Уявіть, що потрібно сказати роботу Google сканувати тільки на адресу «trackingId = aaa125". Тоді робот не просканував б URL 1 і 2, тому що у них немає значення aaa125 для trackingId. Їх зміст не потрапило б до індексу, і жодна з прекрасних спідниць (асортимент магазину) не виявилася б в результатах пошуку Google.

Ні, в цьому випадку краще вибрати зразок URL. Чому? Це говорить роботу, що, коли він натикається в мережі на два URL, що відрізняються за цим параметром (як адреси 1 і 2 вище), то йому потрібно просканувати один з них, і він все одно отримає весь зміст.

У наведеному вище прикладі будуть просканувати два URL, або 1 і 3, або 2 і 3. Жодна спідниця або штани не загубляться.

ЛЗВ: а як щодо параметра sortOrder? Мені все одно, якщо елементи перераховані в порядку зростання або спадання. Чому не дати Google вибрати представлене значення?

ВСВ: У той час як Googlebot продовжує сканувати, він може знайти наступні URL:

1. fairyclothes.example.com/skirts /? page = 1 & sortBy = price & sortOrder = 'lowToHigh'
2. fairyclothes.example.com/skirts /? page = 1 & sortBy = price & sortOrder = 'highToLow'
3. fairyclothes.example.com/skirts /? page = 2 & sortBy = price & sortOrder = 'lowToHigh'
4. fairyclothes.example.com/skirts /? page = 2 & sortBy = price & sortOrder = 'highToLow'

Зверніть увагу: перша пара адрес (1 і 2) відрізняється тільки значенням параметра sortOrder, по відношенню до другої пари (3 і 4). Проте, URL-адреси будуть відображати різний зміст: перший покаже найдешевшу спідницю, а другий - найдорожчу.

Використання єдиного зразкового значення - не найкращий вибір у вашій ситуації. Крім того, якщо ви дозволите вибрати Google вибрати один зразок з набору URL-адрес, які відрізняються тільки по sortOrder, він зможе кожен раз вибирати інше значення.

В наведеному вище прикладі, від першої пари URL може бути обраний URL-1 (sortOrder = »lowToHigh»). Беручи до уваги, що від другої пари може бути обраний 4-й. (SortOrder = »highToLow»). Якби так сталося, Google просканував б менш дорогі спідниці два рази:

fairyclothes.example.com/skirts /? page = 2 & sortBy = price & sortOrder = 'highToLow'

А дорогі спідниці не сканувалися б взагалі! При роботі з сортуванням послідовність параметрів є ключовою. Завжди сортуйте так само.

ЛЗВ: що щодо цінності значення sortBy?

ВСВ: Це дуже схоже на sortOrder. Ви хочете, щоб проскановані адреси вашого списку були послідовно розсортовані по всіх сторінках, інакше робот не побачить деякі елементи.

Однак треба вибирати значення. Якщо ви продаєте книги так само, як і взуття у вашому магазині, краще не вибирати значення title, тому що адреси, що вказують на взуття, ніколи не містять sortBy = title і, таким чином, вони не просканує.

Аналогічно налаштування sortBy = size добре працюють для сканування взуття, але не для книг. Конфігурація установок впливає на весь сайт.

ЛЗВ: Чому не сканувати адреси за допомогою параметра filterByColor?

ВСВ: Уявіть, що у вас є список спідниць на три сторінки. Одні спідниці сині, другі червоні, треті - зелені.

fairyclothes.example.com/skirts /? page = 1
fairyclothes.example.com/skirts /? page = 2
fairyclothes.example.com/skirts /? page = 3

Це список фільтрації. Коли користувач вибирає колір, він отримує дві сторінки з синіми спідницями:

fairyclothes.example.com/skirts /? page = 1 & flterByColor = blue
fairyclothes.example.com/skirts /? page = 2 & flterByColor = blue

Вони виглядають як нові сторінки (набір елементів не такий, як на інших сторінках), але насправді на них не буде нічого нового, тому що всі сині спідниці вже включені в три оригінальні сторінки.

Не потрібно сканувати адреси, які звужують контент за кольором, тому що поданий по них контент вже сканувався. Ще одне важливе зауваження: перш, ніж заборонити деякі адреси до індексації, вибравши No URL, переконайтеся, що робот зможе отримати доступ до контенту іншим способом.

Враховуючи наш приклад, робот повинен знайти три перші посилання на вашому сайті і не повинно бути ніяких налаштувань, що ускладнюють індексацію.

За матеріалами googlewebmastercentral.blogspot.com.

is a post from: Aweb-Blog

Опубліковано: 25/07/11 @ 02:19
Розділ Пошуковики

Рекомендуємо:

Управління репутацією в пошукових системах для західного сегменту
Що таке релевантність?
Чим блогеру корисний Evernote?
Про податки і трудової мобільності
Онлайн курси з SEO від ARTOX media