Главная
Оптимизация и продвижение
Yandex, Googlе и др.
Рынок услуг
Баннеры
Спам жив?
AdSense, AdWords, Begun, Direct
Тематические cтатьи
Мы лучше!

Отвали
печать листовок цена, онлайн
Как оптимизировать ваш сайт как для Google, так и для Inktomi

 

Окружение поисковых машин продолжает быстро эволюционировать, легко превышая вариантность потребителей и практикующих SEO быстро адаптироваться к новому ландшафту. C возвышением Inktomi на уровень важности, который до последних пор в одиночестве занимал Google, оптимизаторам стало необходимо переосмыслить некоторые стратегии, тактики и, возможно, даже этику приемов. Полагая, что данная дискуссия будет разворачиваться в течении ближайших месяцев, каким же образом «этическая SEO фирма» работает, оптимизируя web-сайты, не скатываясь назад к старомодной тактике спама ведущих страниц или портаов?
Недавно, один из оптимизаторов, не связанный с StepForth, сказал мне, что он начинает ре-оптимизировать свои сайты для подготовки к тому, что как он думает, является стандартами Inktomi, и что он считает необходимым в соревновании за высокий трафик. В этом не будет необходимостью, если вы внимательны и следуете всем «лучшим практическим рекомендациям», выработанным с годами.

Ответ на нашу загадку менее чем очевиден. Но он заключен в типичных чертах поведения двух поисковых инструментов. При наличии определенного сходства между двумя машинами, наиболее выраженном в поведении их поисковиков, существует также существенные различия в вариантах поведения машин по отношению к web-сайтам. Большей частью Google и Inktomi придают значение радикально разным элементам в структуре документа при ранжировании сайта. Для Google сильная и релевантная ссылочная популярность все еще остается наиболее важным фактором получения хорошего расположения. Для Inktomi заголовки, meta-теги и текст – самые важные факторы получения хорошего ранжирования. Обе машины принимают в расчет количество и расположение ключевиков, количество входящих ссылок на сайт и якорного текста, используемого в ссылках (хотя Google придает гораздо больше веса якорному тексту, чем Inktomi). На этом вроде бы сходство заканчивается и наступает место, где тактика SEO требует пересмотра. Поскольку Inktomi принимается, как главный «провайдер» списка Yahoo, то, в таком случае, как Google, так и Inktomi поведут относительно одинаковые уровни поискового трафика. Обе будут одинаково важны, с оговоркой, что Inktomi поддерживает двух из больших трех, в то время как Google будет только поддерживать сам себя.

2004 – Год Паука-Обезьяны

Первое, что важно, продумать: как работает каждый паук?

Заход паука Inktomi не означает полной индексации
Прохождение вашего сайта Inktomi"s bot "Slurp" весьма важно. Как и "Google-bot", "Slurp" будет следовать за каждой ссылкой, на которую наткнется, прочитывая и записывая всю информацию. Главная разница между Google и Inktomi, это то, что когда Google-spider проходит новый сайт, существует хороший шанс индексации внутренних страниц, не платя за каждую отдельную страницу. Похоже, мы можем сказать, что это простое недорогое правило неприменимо к Inktomi.
Нам все же следует определить, позволит ли Inktomi всем страницам внутри сайта быть проиндексированными, не оплачивая за появление этих в индексной базе поисковой системе. Помните, что Inktomi - служба платного включения, которая выставляет счет web-мастерам в виде вступительного платежа, основанного на количестве страниц сайта, которые бы вы хотели проиндексировать. Из собранной нами информации, Slurp будет следовать каждой ссылке на сайте и, если дорога будет "гладкой" - пройдет каждую страницу сайта, но страницы внутри этого сайта, за которые платили при подписке, будут посещаться гораздо более часто и будут появляться в индексе за месяцы до неоплаченных страниц.

Мы отметили это, исследуя, как много страниц Inktomi вносит в список от более свежих клиентов, против количества, вносимого от старых. Мы видим, что чем старше сайт, тем больше страниц появляется в базе данных Inktomi и на SERPах, использующих базу данных Inktomi. (Это, предполагая, что вы заплатили за включение только первой страницы). Исходя из расценок Inktomi, сайт среднего размера из 50 страниц мог обойтись до $1289 в год с тем, что каждая страница добавлялась к базе данных платного включения. Так что вероятнее далее не полагать, что web-мастера мелкого бизнеса станут платить так много.

Google собирается вас достать
Google-bot похож на Borg в Star Trek. Если какой-либо сайт имеет ссылку, указывающую на ваш сайт, и находится в индексной базе Google, то, в таком случае, Google-bot найдет вас и ассимилирует всю вашу информацию. Как наиболее хорошо известный и плодовитый паук в сети, Google-bot и его двоюродный брат Fresh-bot посещают сайты исключительно часто. Это означает, что большинство ресурсов с эффективными ссылками попадут в базу данных Google без нужды ручной регистрации. Поскольку Google в настоящий момент не имеет модели платного включения, каждая страница какого-либо сайта может быть появиться где-нибудь на SERP-ах, производимых Google. Предоставив вариант найти каждую страницу на сайте (эффективные внутренние ссылки), дизайнеры ресурсов смогут наблюдать свои страницы, появляющимися в базе данных Google в пределах двух месяцев после публикации.

Сейчас мы служим двум хозяевам: Google и Inktomi
Хорошо, как же оптимизировать сайты для обеих, не рискуя перекрыть одно размещение другим. Основной ответ – дать каждому, что он хочет. Почти в течении года, большинство в SEO индустрии фокусировалось на ссылочных стратегиях, для того, чтобы задобрить Google"s Page Rank. Такая сильная устремленность на ссылках возможно, была одной из причин перестройки Google своего алгоритма в ноябре. Релевантные входящие ссылки все еще исключительно важны но более не могут считаться решающей стратегией для наших клиентов. Возвращаясь к основам оптимизации сайта и помня уроки, полученные в отношении того, что за последних 12 месяцев давало первые 10 мест, оптимизаторы и web-мастера должны проводить много времени за обдумыванием заголовков, тегов и текста наряду со ссылочной стратегией (как внутренней, так и внешней). Расположение ключевиков и их частота снова возвращаются на свет и должны быть изучаемы SEO и клиентами, как новая основа эффективной оптимизации сайта.
В то время, как добавление карты сайта всегда считалось лучшей практикой SEO - сейчас оно должно стать неотъемлемой практикой. То же самое касается уникальности заголовков и тегов на каждой странице сайта. Другое важное дело, которое теперь должны будут учесть SEO-герои, - это работать исключительно с сайтами, имеющими уникальное, оригинальное содержимое. Я могу поклясться, что не пройдет и 12 месяцев, как Inktomi введет правило против дублирования содержания, как вариант контролировать как SEO, так и индустрию аффилиатного маркетинга. Сайты с удвоенным содержимым являются либо зеркалами, порталами, либо производными от них. Ничто из вышеперечисленного не должно прильщать трудолюбивого оптимизатора. При исключительных обстоятельствах, когда требуется дублированное содержимое, гораздо более часто, чем не дублированное, оно является тратой времени и, скорее всего, затруднит кампанию SEO, чем пойдет ей на пользу.

Последний совет
Последний совет этой статьи: не бойтесь возлагать более высокие затраты на клиентов. Поскольку ваш клиент хочет результат быстро. Когда действительно анализируешь затраты платного включения, они не отличаются ужасным образом от других затрат по рекламе. С одним крупным исключением. Большинство платной рекламы базируется регионально (или неоправданно дорого для малого бизнеса). Реклама в поисковиках отображается интернационально, и это стоит того.

Seo новости от
,


  © Copyright 2007 SEO Site