3 года назад

по какому принципу работают поисковые роботы

Arshavir (Гость) Google
3

Вопросы по теме

1 год назад По каким принципам работает синтезатор речи google translite???даю 99 баллов

По каким принципам работает синтезатор речи google taslite???

Javier Rodriguez (Гость) 2 ответа
3
1 год назад какие хитрости учитывают поисковые роботы

Надо сделать на сайте внутреннюю перелинковку между страницами,но так,чтобы этих анкоров ссылок не было видно. Хочу отформатировать эти ссылки так же как и обычный текст, таким образом скрыть от посетителей ссылку,но чтобы робот учитывал эту ссылку
Каждую страницу надо сделать уникальной для каждого посетителя в соответствии с его проблемой,иначе доверие упадёт.Например,если продаётся продукт,который способен решить многие проблемы,но посетитель должен считать,что этот продукт лично только для р...

Shalaumov (Гость) 2 ответа
3
1 год назад Как поисковые роботы google обрабатывают php и js файлы. Как сделать контент отслеживаемым?

По какому алгоритму поисковые роботы google обрабатывают(и обрабатывают ли вообще) .php и .js файлы?  Как сделать генерируемый ими контент отслеживаемым?

пк пк (Гость) 1 ответ
3
Ответы (2)
Vane_всё_огонь (Гость) 3 года назад
2

Поисковая машина собирает в интернете всю информацию (тексты, изображения, видео и т.п.) и по принципу совпадения слов и фраз, заданных для поиска даёт вам результат в виде конкретных ссылок.

Пожаловаться
ba-doom (Гость) 3 года назад
8

Чтоб дочитал до конца...!!!

каждый робот имеет свое уникальное имя и соответственно, каждый выполняет свою определенную работу, или скажем так, предназначение. Давайте рассмотрим, какие функции они выполняют:
Запрос на доступ к сайту;
Запрос для обработки и извлечению страниц;
Запрос на анализ контента;
Поиск ссылок;
Мониторинг обновлений;
Запрос к данным RSS (сбор контента);
Индексация.
Например, у Яндекса существует несколько роботов, которые отдельно индексируют, анализируют, проводят сбор информации о следующих данных:
Видео;
Картинки;
Зеркало сайта;
Xml-файлы;
Файл robots.txt;
Комментарии;
Фавикон и т.д. (как создать фавикон для сайта)
Вообще, по сути, поисковый робот всего-навсего посещает интернет ресурсы, собирая необходимые данные, которые он потом передает индексатору поисковой машины. Именно индексатор поисковой машины обрабатывает полученные данные, и выстраивает индекс поисковой системы должным образом. Я бы даже сказал, что робот u2013 это «курьер», который всего лишь собирает информацию.


******************************************

Как ведут себя роботы и как ими управлять
Отличия поведения робота от простого пользователя на сайте, заключается в следующем:
1. Во первых, это касается управляемости. В первую очередь, робот запрашивает с вашего хостинга (как выбрать хостинг правильно) файл robots.txt, в котором указанно, что можно индексировать, а что нельзя.
2. Особенное отличие робота u2013 это скорость. Между каждыми запросами, которые относятся к двум разным документам, их скорость составляет секунды, а то и доли секунды. Даже для этого, есть специальное правило, которое можно указать в файле robots.txt, чтобы роботу поисковых систем поставить ограничение к запросам, тем самым уменьшив нагрузку на блог.
3. Также, хотелось бы отметить их непредсказуемость. Когда робот посещает ваш блог, его действия невозможно отследить, невозможно узнать, откуда он пришел т.п. Он действует по своему принципу, и в том порядке, как построена очередь индексации.
4. И еще один момент, это когда робот, в первую очередь обращает внимание на гипертекстовые и текстовые документы, а не на всякие файлы, касающиеся оформления CSS и т.п.
Хотите посмотреть, как выглядит страница вашего блога в глазах поискового робота? Просто-напросто, отключите в своем браузере отображение Flash, картинок и стилей оформления. И вы увидите, что любой поисковый робот заносит в индекс, только HTML-код страницы, без всяких картинок и прочего содержания.
А теперь, настало время поговорить, как ими управлять. Как я уже говорил ранее, управлять роботами можно через специальный файл robots.txt, в котором можно прописывать нужные нам инструкции и исключения, чтобы контролировать их поведение на своем блоге. К этому моменту, нужно отнестись очень внимательно! Так, как робот ПС u2013 это очень важная часть, которая непосредственно влияет на судьбу вашего блога, это касается в частности его индексации, ранжирования, монетизации сайта и еще много важных моментов.
Запомните, ваш блог должен нравиться поисковым системам! О том, как правильно настроить файл robots.txt, я расскажу в следующей статье. А также рекомендую вам прочитать статьи про то, что такое SEO копирайтинг и конверсия сайта. На сегодня у меня все. Подпишитесь на обновления блога.


Read more: http://blog-raskruti.ru/blogosfera/poiskovyiy-robot-robotyi-poiskovyih-sistem#ixzz2nku7DPCY

Пожаловаться
по какому принципу работают поисковые роботы (Google) - вопросы и ответы на все случаи жизни - справочник Google moi-vopros.ru