1. Основні принципи збору аналітичних даних в Інтернеті

1. Основні принципи збору аналітичних даних в Інтернеті

Як працює збір даних в Google? § Google отримує інформацію з різних джерел. Ось деякі з них: веб- сторінки; контент користувача, наприклад профіль вашої компанії або інформація, яку хтось додав на Google Карти; скановані книги; відкриті бази даних в Інтернеті; безліч інших джерел. § Важливе місце має пошуковий алгоритм, який складається з трьох етапів: § Сканування § Індексування § Ранжування та показ результатів

Важливі терміни! 

Ресурс. Загальний термін, що позначає сайт, який ви додали до облікового запису Search Console. Список ресурсів представлений на головній сторінці вашого облікового запису. § Доказ ресурсу. При виконанні цієї процедури ви підтверджуєте, що доданий до вашого облікового запису Search Console сайт дійсно належить вам. Ви не зможете отримувати дані про ресурс у Search Console, доки не доведете права власності на нього.  

Кліки, покази, CTR – це основні показники ефективності Google Пошук. Детальну інформацію про них можна знайти тут. Кліки показують, скільки користувачів натиснули на посилання, зображення або відео у Пошуку, рекомендаціях або іншому розділі Google, щоб перейти на ваш сайт. Покази дозволяють дізнатися, скільки користувачів бачили посилання на ваш ресурс (зображення, відео або інший елемент сайту) у Пошуку, рекомендаціях або іншому розділі Google. CTR (скор. від click-through rate) дорівнює кількості кліків, поділеному на кількість показів. 

Сканування. Пошукові роботи Google перевіряють посилання та файли Sitemap, створюючи список загальнодоступних URL-адрес, за якими користувачі можуть переходити на знайдені сайти. Це необхідно для додавання ресурсу до результатів пошуку Google.  

Індексування. Це аналіз та інтерпретація контенту тієї чи іншої сторінки з подальшим додаванням отриманої інформації до сховища Google. Це дозволяє Google підібрати найкращі результати пошуку на запит користувача. 

 Робот Googlebot. Пошуковий робот Google. Декілька типів таких роботів запитують контент під виглядом різних пристроїв (смартфонів, мобільних телефонів середнього класу, настільних комп'ютерів), що дозволяє формувати результати пошуку для кожної з цих платформ.  

Канонічні сторінки. Якщо та сама сторінка розміщена на двох різних URL, це може негативно позначитися на результатах пошуку. Наприклад, ідентичний контент за адресами http://example.com/dogs та http://www.example.com/dogs у результатах пошуку може існувати як дві окремі сторінки та мати менший рейтинг. Вам слід повідомити Google, що ці сторінки є однаковими, і зробити одну з них канонічною. Вона і відображатиметься в результатах пошуку. Канонічні сторінки можна вказати за допомогою файлу Sitemap або тегів HTML, а також у налаштуваннях Search Console. 

 Файл robots.txt. Назва файлу, який зберігається на вашому сайті та повідомляє Google, які сторінки не потрібно індексувати та показувати у результатах пошуку.  

Файл Sitemap. Список URL на вашому сайті, які Google використовує як відправні точки під час сканування. Цей список міститься в одному або кількох файлах, що зберігаються на веб-сайті.

Особливості пошукового алгоритму.

Сканування.






Індексування


Ранжування та показ результатів