Knigionline.co » Компьютеры » Яндекс для всех

Яндекс для всех - Абрамзон М. Г (2007)

Яндекс для всех
  • Год:
    2007
  • Название:
    Яндекс для всех
  • Автор:
  • Жанр:
  • Язык:
    Русский
  • Издательство:
    БХВ-Петербург
  • Страниц:
    245
  • ISBN:
    978-5-9775-0144-6
  • Рейтинг:
    0 (0 голос)
  • Ваша оценка:
Речь ведется о лидере среди поисковых ресурсов российской части Интернета — Яндексе. Описаны его сервисы для поиска музыкальных произведений, блогов и адресов, товаров и документов и новостей. Проанализированы и сервис для создания и размещения сайтов и почтовый сервис на Народ. ру. Человек, читающий это наполняется знаниями о том, что такое "электронные деньги" и как данной валютой оплатить товар. Обширный интерес уделяется доступным абсолютно для всех программам предназначенным для поиска, которые Яндекс предлагает своим посетителям для поиска даже на своем компьютере, не говоря уже и о поиске на сайтах. На компакт-диске записаны программы Яндекса, описываемые в книге, и дополняющие материалы.
Для людей которые только начинают пользоваться сетью Интернет.

Яндекс для всех - Абрамзон М. Г читать онлайн бесплатно полную версию книги

), "Факторы, влияющие на ранкинг в поисковой системе" (

printmode.html?id=270) была сделана попытка собрать и классифицировать известные факторы, учитываемые поисковой системой Google при ранжировании сайтов. Не эти, но подобные факторы могут учитываться при ранжировании и другими поисковиками. Об отдельных факторах, влияющих как на индекс цитирования, так и на ранжирование сайта в результатах поиска, говорится в статьях, опубликованных и на сайте Яндекса в разделе "О компании" (

).

В чем бы ни заключались различия в подходах к определению релевантности различными поисковыми системами, существуют и общие факторы, оказывающие как положительное, так и отрицательное влияние на формируемые результаты поиска.

Остановимся вначале на проблемах, связанных с невозможностью выполнения индексации сайта и, соответственно, невозможностью корректно рассчитать значение его индекса цитирования.

Одним из камней преткновения при индексировании сайта может оказаться неправильно сформированный файл robots.txt, с помощью которого можно ограничить доступ поисковых роботов к разделам сайта.

На индексацию сайтов отечественными поисковиками (Яндекс и Рамблер) оказывает влияние тег <noindex> </noindex>. Все, что будет размещено на странице внутри этого тега, не индексируется (зарубежные поисковики на этот тег внимания не обращают). С другой стороны, этот тег может быть использован для манипулирования распределением на странице ключевых слов.

Хотя поисковым системам уже немало лет, но индексировать скрипты, написанные на Java-script и Vbscript, они еще не научились. Тем более те, что исполняются на стороне клиента. Поэтому переход по ссылке, формируемой в процессе загрузки страницы, робот не отследит. В лучшем случае, робот проиндексирует скрипт как обычный текст.

Аналогичная ситуация сложилась и вокруг выпадающих меню, выполненных по технологии DHTML. Помимо причин, аналогичных взаимоотношению паука и скриптов, меню на DHTML имеет и дополнительную проблему. Заключается она в том, что часто код меню размещается во внешних файлах, а некоторые поисковые роботы такую систему формирования структуры ссылок не поддерживают.

Многие сайты, разработанные на технологиях ASP, PHP, Cold Fusion или JSP, формируют динамические адреса страниц. Порой их сложно отличить от статических, но многие пауки считают динамическими адресами те, в которых присутствует знак вопроса или они имеют расширение, отличное от htm или html, например php, jsp, pl и др. В строке динамического адреса могут находиться несколько параметров со своими значениями. Некоторые поисковые роботы будут обрабатывать такие адреса, если количество параметров не превышает некоторого определенного числа. Другие — вообще не будут обрабатывать такие адреса. Третьи обработают лишь часть адресов в количестве, не превышающем некоторого значения. Следовательно, сайты, адреса страниц на которых определяются динамически, могут "выпасть" из индекса поисковой системы вне зависимости от их качества.

Мешают корректному процессу индексирования неверные отклики сервера. Проявляться это может, например, в том, что сервер выдает код 200 (Ok) для несуществующих страниц, либо возвращает код 301 (перемещено), 302 (временно перемещено), 404 (не найдено). В последних трех случаях страницы роботом не индексируются, а если они уже были в индексе, то удаляются из него.

Обратите внимание на размер страницы. Практика показывает, что роботы индексируют только определенное количество первых килобайтов кода. Например, робот Google добавляет в индекс первые 101 Кбайт, робот Яндекса — не более 200 Кбайт. Поэтому большие тексты для полноценного индексирования лучше разбивать на части.

Если обратиться к Яндексу, то рекомендую прочитать ответы Александра Садовского на вопросы, заданные ему на форуме

Перейти
Наш сайт автоматически запоминает страницу, где вы остановились, вы можете продолжить чтение в любой момент
Оставить комментарий