Продажа белых каталогов =
20$.
База белых каталогов для регистрации сайта в поисковых системах,
каталогах и рейтингах русскоязычного Интернета. База каталогов
сайтов содержит 1000 белых
каталогов не требующих обратных ссылок или не проверяет наличие на практике. Дополнительно в комплект входит база каталогов
сайтов
состоящая из 3000 каталогов сайтов, рейтингов, досок объявлений, для дальнейшего продвижения вашего сайта в Интернет.
Подробнее... |
|
Регистрация в каталогах
Регистрацией в каталогах можно повысить ИЦ Вашего сайта,
повысить рейтинг в поисковых системах, которые при ранжировании
учитывают количество ссылок на данный сайт с других сайтов, а также
привлечь посетителей из самих каталогов.
Стоимость регистрации в каталогах - 50$.
Подробнее... |
|
Начав скалить зубы, поздно вилять хвостом
В поисках дешёвого целевого трафика любой вебмастер неизменно обращает свой взор на поисковики. Это лакомый кусочек- если поисковый запрос серфера выводит Ваш сайт в верхушку серпа, и этот сайт про то, что серферу надо, то даже 100 несчастных посетителей в сутки дадут Вам десятку не менее несчастных уёв за те же самые сутки времени (берём типовую конверсию и объект гешефта стандартной для Рунета стоимости).
Понятно, что вебмастер спит и видит, как бы ему увеличить поисковый трафик. Тут в ход идут разные уловки.
Однако и поисковик, с другой стороны, тоже должен немедленно вырыть окоп полного профиля, взять в руки рогатку, и нещадно отстреливать любые страницы, прорывающиеся в серп незаслуженно. Ибо иначе получится полная хрень, и юзеры, и рекламодатели от искалки отвернутся, а сама искалка начнёт потихоньку сдуваться. А в неё деньги вложены, акции выпущены- всё это не просто так. Там миллиарды крутятся.
Естественно, в любой искалке есть живые люди, отвечающие за качество поиска. Именно они создают и подкручивают алгоритмы, благословляют апдейты, и отвечают задницей за результаты. В Гугле таким человеком является Мэтт Катс, к примеру говоря. Причём у него есть и свой блог - как видим, всё традиционно, тут он сам себе бренд.
Разговор про все эти подробности у нас зашёл не просто так- большинство вебмастеров, поначитавшись древних откровений различных гуру, слабо представляют причины своего облома в том же Гугле. Так что давайте сегодня об этом.
Как ни странно, но Гугл был абсолютно предсказуем где-то до сентября 2005. Далее контора разродилась Jagger-апдейтом (в цивилизованном мире всякая сущность должна быть поименована, привыкайте), а затем и Bigdaddy-улучшением. Одно следовало за другим поэтапно, проистекало не шибко гладко, и даже отодвинуло по времени очередной обсчёт PageRank'а. А также привело к казусу, подмеченному пользователями Google AdSense - страницы, по которым ползали поисковые пауки AdSense, начинали показываться в серпе, не будучи официально проиндексированными. Я тоже это видел, и описал в этом блоге.
Вебмастера быстро поняли, что нововведения касаются сразу трёх параметров анализа их сайтов Гуглом: контента, ссылок и структуры ресурсов. На почве чего практически сразу начался небольшой бардак.
Ну, не то чтобы бардак. Но вебмастера, не раз наблюдавшие "пляску Гугла" во время пересчёта ПейджРанка, поимели стойкое ощущение, что некое подобие пляски наблюдалось с декабря и чуть ли не по март. Сайты то появлялись в серпе, то проваливались вниз, то вновь всплывали... Причём без активных действий со стороны оптимизаторов (самые мудрые из них вообще на время затаились).
Ну и нашлись, конечно, умные головы, которые смогли обобщить то, что задумал Гугл. Я же, со своей стороны, попытаюсь здесь систематизировать результаты их труда, так что документ маленьким не получится.
Гугл ратует за качественный (полезный и оригинальный) контент.
Тут всё достаточно просто- наряду с контентообразующими сайтами (головной проект) есть ещё и сонм вторичных по отношению к ним ресурсов, дублирующих в себе материалы с головных сайтов, либо являющихся их партнёрами (с реферальскими ссылками и всеми сопутствующими делами).
Нет ничего удивительного в том, что Гугл хочет видеть в серпе оригинал выше клонов. Это не значит, что клоны будут забанены, нет. Но если они ссылаются на головняка, с реферами в урлах, воспроизводят куски контента головняка на своих документах, то искалка предполагает, что реальному серферу будет куда полезнее именно головняк, а не сайт Васи Пупкина с передранными с головняка материалами, адресующийся реферальской ссылкой опять-таки на головняка.
Применительно к импорту контента всё несколько мягче. Вероятно, аналогия просматривается, но пока практически не ощущается. По крайней мере, многие агентские магазины в серпе торчат выше моего базового- тут всё достаточно демократично. Хотя возможно, Гугл просто не понимает, кто у кого контент берёт. В случае портаторов это ясно, и импортёры контента, как правило, следуют в серпе за экспортёром.
В особо же фатальных случаях, когда передир контента идёт полный, фактические дубликаты сайтов исчезают из основного индекса совсем, переходя в Google Sandbox- в "дополнительные результаты выдачи". Хотя при определённых условиях могут исчезнуть и оттуда. Причину Вы теперь знаете.
Неопределённость тематики для многих сайтов на этапе Bigdaddy апгрейда Гугла вышла боком- они резко упали в серпе. В принципе, так и должно быть- слишком много развелось ресурсов ни о чём, и их надо отфильтровывать. Благо, есть из чего.
Политика линкования.
Будете смеяться, но теперь структуре ссылок внимания уделяется больше, чем раньше. Сформировалось такое понятие, как карта входящих и исходящих ссылок для каждого(!) сайта. И любая из ссылок с любого документа сайта анализируется с позиций уместности её здесь. Когда линк идентифицирован как неуместный, это плохо- или линкокрутилка, либо купленная ссылка (что не лучше).
Более того. По результатам анализа карты ссылок Гугл каждому сайту навешивает ярлычок с параметром "степень доверия". Сайты с низкой степенью доверия (линкующиеся с кем попало) своими ссылками несут очень небольшой вклад, и линковаться с ними практически бессмысленно. Вы это должны были наблюдать на примере досок объявлений, которые не дают никакого вклада в статус сайта даже при огромном числе ссылок на него. Ничего удивительного- степень доверия Гугла для этих досок вообще никакая. Что тоже понятно.
Отдельный разговор про сети взаимных ссылок. Крайне аккуратно пользуйтесь автоматическим линкообменом, а лучше вообще откажитесь от него во избежание наказания. Может быть, какой-нибудь пейджранк от этого и перепадёт, да только без толку- получите крошечный сухарик-кириешку степени доверия Гугла вместо полагающейся полновесной булки с маком, и никогда больше не сможете подтолкнуть одним своим сайтом другой свой сайт.
Впрочем, тут и ещё одна заморочка вылазит при работе со всякими линкаторами. Катс прямо так и сказал: "если вы увлекаетесь трейдингом взаимными ссылками, то не удивляйтесь тому, что у нынешнего кроулера другие приоритеты, и он не посещает ваш сайт так же часто, как раньше". Мысль выражена изящно. А по-русски говоря, автоматический линкообмен в понимании Гугла свидетельствует о второсортности сайта и отсутствии дружбы с головой его вебмастера. Ни больше, ни меньше.
Впрочем, по всему видать, и Катс может выражаться по-нашему: "этот сайт выглядел очень хорошо, и у него не было ни одной ссылки на сайты всяких придурков". Это он про автоматический линкообмен так отзывается. Запомните такое отношение. И сделайте выводы.
Какие? Да простые самые- сейчас придаётся большое значение односторонним входящим ссылкам с качественных ресурсов, и односторонним же исходящим ссылкам на качественные сайты (а не какие попало, тут будьте особо внимательны- за исходящий линк отвечаете головой).
Итог. Не сказать, чтоб шибко неожиданный, всё достаточно логично.
Если Ваш бизнес зависит от трафика поисковой природы (а попробовал бы он не зависеть), то надо помнить, что только оригинальный контент на сайте, залинковка с себе подобными и тематически однородными качественными ресурсами, а также отсутствие ссылок "на всяких придурков" (говоря словами Катса) помогут Вам прыгнуть в серпе выше головы.
Собственная партнёрская программа в этом только поможет.
Блоггерство даёт просто замечательный результат- сегодня блоги являются фаворитами серпа Гугла.
Итог неочевидный.
Благодаря тому, что Гугл банит сайты только в исключительных случаях, когда чётко видит, что ресурс совершенно придурочный, и исследует всю совокупность вариабельного поведения юзеров для улучшения сервиса и коррекции апдейтов, мы на примере рассмотрения "обломов Гугла" можем заключить:
Всевозможные неклоачные доры поисковыми ботами проходятся насквозь, вплоть до таргетинговой страницы. Всякие ифреймы им не помеха. В серпе будет присутствовать таргетинговая страница, но не будут видны сами доры, хотя без их посредничества не обошлось никак. Раньше было не так, учтите.
302 редирект Гугл обожает. Не бойтесь его использовать- ссылка на страницу с 302 редиректом будет склеена с таргетинговой, с наследованием редиректом ПейджРанка таргетинга. Сам Катс конкретно указывает на то, что для борьбы с двуличностью доменов (с www и без) как раз и нужно использовать 302 редирект- Гугл с благодарностью примет помощь в избавлении его от двойного индекса Вашего сайта.
Естественно, сей маленький обзорчик результатов последних апдейтов Гугла никак не соответствует громадью гугловых планов. Но Вы совершенно не стеснены в возможностях, и вольны сами сходить в поиск и почитать об апдейтах на любом языке и хоть из первоисточника. Тут отражены только вещи, о которых вебмастера ну всяко должны знать, даже если им лень припадать к истокам. А многим лень.
Источник: http://webeconomist.ru
|
AllSubmitter.
Максимально качественная, быстрая и контролируемая регистрации в
любых информационных ресурсах Интернета (поисковые системы,
каталоги, рейтинги, доски объявлений, shareware сайты, новостные
ресурсы, обмен ссылками и.т.д. )
Подробнее... |
|
Статистика сайта.
Счетчик посещений или анализатор логов, какой правильный выбор -
для интернет маркетинга?
Подробнее... |
|