Мой сайт Вторник, 03.12.2024, 21:46
Приветствую Вас Гость | RSS
Главная | | Регистрация | Вход
» Меню сайта

» Категории раздела
Новости науки и техники [578]
Science and Technology [11]
Новости наномира [3]
Сплавы [4]
Трибология [0]
Водород [4]

» Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0

» Форма входа

Главная » 2011 » Апрель » 29 » Черное SEO или запрещенная оптимизация сайта
06:09
Черное SEO или запрещенная оптимизация сайта

Черное SEO или запрещенная оптимизация сайта

Рано или поздно каждый владелец сайта сталкивается с задачей привлечения посетителей на сайт. Здесь есть два варианта: покупка рекламы или поисковая оптимизация. Оба варианта не противоречат друг другу и более того, их совместное использование и приносит желанный трафик на сайт. Причем посетители с поисковиков ценятся особо, поскольку отражают успехи или неудачи сайта, его интерес и ценность для пользователя.

Конечно, посетители не особо интересны, если вы сделали сайт только для себя, но «сайты для себя», которые не нуждаются в широкой аудитории, не обязательно выкладывать в Интернете, получая дополнительные проблемы в виде необходимости поиска хостинга и оплаты домена.

В случае покупки рекламы, найти какой-нибудь «халявный» источник трафика чрезвычайно трудно, а, вот, на оптимизации большинство вебмастеров пытаются экономить правдами и неправдами. В этой статье мы будем больше говорить о «неправдах» или черных методах оптимизации для поисковых машин.

Поисковые системы оценивают сайты совершенно по-разному. Например, «Яндекс» больше всего ценит в ресурсах уникальный контент. С одной стороны это правильно, ведь самое первое предназначение любого сайта – дать посетителю интересную информацию, причём такую, какой нет на других сайтах. Однако здесь есть и проблема – стоит только уникальной информации появиться в Интернете на каком-либо сайте, как её тотчас же растаскивают другие вебмастера по своим сайтам, и часто даже до того, как сайт-первоисточник будет проиндексирован «Яндексом». Вот незадача! Жаловаться тут бесполезно.

Поисковая система Google придерживается несколько иной политики. Для Google уникальность контента также имеет значение, но не первостепенное. В некоторых случаях – вообще не имеет. Для Google в любом сайте ценится более всего так называемая «ссылочная масса» – чем больше ссылок ведёт на сайт с других сайтов, тем выше значимость этого сайта, причём качество ссылок часто не имеет значения, главное – их количество. Этой политикой уважаемой поисковой системы вовсю пользуются дорвейщики, то есть вебмастера, активно занимающиеся обманом поисковых систем. Так как «хорошие» ссылки добыть гораздо труднее, чем ссылки со всяких «линкопомоек», то популярность этих «линкопомоек» повышается год от года.

Справка InternetUA: Дорвей — вид поискового спама, веб-страница, специально оптимизированная под один или несколько поисковых запросов с единственной целью её попадания на высокие места в результатах поиска по этим запросам. Иногда дорвеем называют и целый веб-сайт, состоящий из таких страниц.

Сегодня существует множество бирж, торгующих специальными базами ссылок на всевозможные форумы, блоги, гостевые книги – ресурсы, где можно в автоматическом режиме оставить ссылку на дорвей. Всякого рода исследования показали, что несколько сотен ссылок с заброшенных, немодерируемых, разнотематических и разноязычных форумов имеют такую же ценность, как и одна ссылка с очень хорошего тематического ресурса. И, как ни странно, Google эти ссылки учитывает тоже. Не все, правда, но если домен, на котором расположен заброшенный форум, подвергающийся атакам спамеров, занесен в базу поисковой системы, то это значит, что страницы форума индексируются тоже. Поисковые системы любят, когда ресурс «развивается», то есть когда к нему добавляются новые страницы, появляется свежий контент и т.п. В глазах поисковых роботов это так и выглядит, и хотя на деле происходит нечто иное, но алгоритмы Google настроены так, что появление на страницах (в топиках) форума массы новых ссылок на дорвеи воспринимается именно как появление контента.

Именно этим обстоятельством в полной мере можно воспользоваться для того, чтобы без особых проблем продвинуть свой сайт именно в Google, что и делает немалая часть вебмастеров, забивая выдачу этой поисковой системы своими «дерьмосайтами» и загаживая Интернет.
Рассмотрим подробнее, как работает эта технология, ни в коем случае не рекламируя ее. Объективность профессии журналиста заставляет иной раз показывать то, что не могут увидеть люди, способные изменить ситуацию. В нашем случае экспертом выступил опытный дорвейщик с многолетним стажем работы, давно, впрочем, «завязавший» с этим делом, во многом по соображениям некой интернет-этики, которой так не хватает нашему сообществу.

Итак, как работает спец по черному SEO? Он просто делает обычный дорвей, имеющий в своём составе, к примеру, 500 страниц, заливает в его корень сайт, который надо продвинуть, и линкует все страницы на главную страницу сайта, а некоторые – на другие страницы. Хорошо известно, что по некоторым причинам многостраничные сайты раскручиваются гораздо быстрее, чем малостраничные ресурсы.

Правда, в свою «сеть» он привлечет немалое количество и часто не совсем нужного трафика, но зато этого трафика будет так много, что та часть, которая окажется для дорвейщика ценной, во много раз превысит то количество, которое он получил бы, пытаясь раскручивать малостраничный сайт.

Для начала нужно получить базу поисковых запросов по теме сайта. В принципе это не так сложно как кажется – можно воспользоваться специальными программами-парсерами ключевых фраз из базы поисковика. Есть платные и бесплатные программы. Технология сбора ключевых фраз заключается в следующем: сперва вбивается в программу главное слово, по которому нужно продвинуть сайт. Если сайт на автомобильную тематику, то вбивается слово «авто». Сначала берутся результаты (обычно это тысячи слов), затем их синонимы. Для «авто» нужны синонимы, к примеру, «машина», «шофер», «капот» и прочее подобное, хватит 5-10 синонимов.

Как только собраны ключевые фразы, составляется список для изготовления сайта-дорвея. Отобранные «ключевики» складываются в отдельный файл, и группируются в таких пропорциях: примерно 40-50% - фразы по главному слову (по «авто» или «диетам»), а остальные 50-60% - все синонимы в любых пропорциях. Это надо для того, чтобы на страницах не было слишком много фраз (в процентном отношении), содержащих одно и то же слово, или же его корень. Если сайт по теме «авто», значит, соотношение будет примерно таким:

«авто» - 50%;
«машина» - 25%;
«шофер» - 15%;
«капот» - 10%.

Теперь принимается решение, каким контентом для людей будут наполнены сгенерированные страницы. Естественно, это не будет текст, и поэтому страницы лучше всего адаптировать под картинную галерею. Если сайт будет иметь 500 страниц, то надо «награбить» из Интернета не менее 500 больших фотографий по теме, однако чем больше – тем лучше. Фотографии нужно брать такие, чтобы они нравились посетителю сайта независимо от того, по какому конкретно запросу внутри темы он пришёл. Естественно, графика должна быть качественной, благо этого «добра» в Интернете сегодня предостаточно.

После этого создается шаблон. Шаблон генерируемых страниц делается тот же, что и для основного сайта, не нужно, чтобы генерируемые страницы чем-то отличались по дизайну от корневых. Надо только расставить в нём макросы – команды, по которым будут генериться страницы. Для того чтобы это сделать правильно, достаточно просто ознакомиться с таблицей макросов – для каждого дорогенератора макросы разные, но все они отвечают за одни и те же функции. В принципе функции макросов не так уж и сложны – они расставляют по своим местам все переменные значения шаблона.

Например, самый важный макрос – это макрос, отвечающий за главную ключевую фразу страницы. Именно под эту фразу будет «заточена» и вся страница, включая тайтл (её название), берётся она случайным образом из того списка ключевых фраз, которые подготовлены заранее и «скормлены» доргену. Используются и другие макросы. Для людей нужно просто поставить на самом видном месте прямую ссылку на главную страницу сайта, так, чтобы посетитель её увидел сразу же после того, как просмотрит картинки.

Как только закончены все приготовления, генерируются страницы. После того как страницы созданы, создается карта сайта. На карте сайта размещаются ссылки на все страницы сайта – это нужно для того, чтобы поисковые роботы имели ко всем этим страницам прямой доступ, а не выискивали их в лабиринтах сайта самостоятельно. На карту сайта ставится ссылка с главной страницы, но другие страницы линковать на неё не стоит во избежание получения множества «взаимных ссылок» - во-первых такие ссылки бесполезны, а во-вторых поисковые роботы их не любят. Карта сайта создаётся только лишь для роботов, людям переходить на неё со страниц вовсе не обязательно.

Многостраничный сайт-дорвей заливается на сервер, а в корень ставится главный сайт, сделанный руками. Теперь с ним надо «познакомить» поисковых роботов, то есть проставить на карту сайта минимум одну ссылку. Как говорилось выше, для того чтобы страницы сайта начали хорошо ранжироваться в Google, надо проставить как можно больше ссылок на другие страницы сайта. Для этого надо воспользоваться специальной программой, которая называется «спамилкой». Базу заброшенных форумов для спамилки можно купить очень дешево, и хотя по-настоящему рабочих форумов в таких базах будет относительно мало, но для получения хорошей ссылочной массы достаточно и несколько сотен «живых». Задание для рассылки составляется так, чтобы в нем были ссылки на 20-30 внутренних страниц сайта. Как только рассылка произведена, надо подождать несколько дней и проверить, как происходит индексация. Как только проиндексируется хотя бы половина страниц сайта, рассылка повторяется, только с участием других 20-30 внутренних страниц. Как только будет проиндексирован весь сайт целиком, можно ждать результатов по трафику. Если спустя две недели трафика будет мало, рассылка производится еще раз и еще, пока поток трафика не достигнет несколько сотен уникальных посетителей в день. Дальнейшая рассылка нецелесообразна, так как сайт начнёт раскручиваться уже самостоятельно.

Использование черных методов поисковой оптимизации – это всегда риск. Поисковые системы прекрасно осведомлены обо всех хитростях дорвейщиков и постоянно совершенствуют свои алгоритмы и методы борьбы с «черными сеошниками». И если кому-то удается достичь результата, путем загрязнения Интернета, то не факт, что ваши усилия приведут к обратному эффекту – сайт будет навсегда забанен поисковиками. С таким «диагнозом» о будущих успехах сайта можно забыть. Поэтому наша редакция настоятельно рекомендует использовать белые методы оптимизации: адаптацию сайта для поисковиков, релевантность контента, правильная верстка, оптимизация необходимых файлов (robots.txt), анализ поисковых запросов и др. А если бюджет позволяет, то лучше всего, конечно, довериться профессионалам.

Сергей Драгунов

http://internetua.com/cernoe-SEO-ili-zapresxennaya-optimizaciya-saita
Категория: Новости науки и техники | Просмотров: 593 | Добавил: Professor | Рейтинг: 0.0/0
Всего комментариев: 3
3 Mbfcbz  
buy atorvastatin 10mg <a href="https://lipiws.top/">lipitor pills</a> generic lipitor 80mg

2 Dfzabl  
buy lipitor 80mg <a href="https://lipiws.top/">lipitor 40mg brand</a> lipitor pill

1 paytightihos  
hi

Имя *:
Email *:
Код *:
» Поиск

» Календарь
«  Апрель 2011  »
ПнВтСрЧтПтСбВс
    123
45678910
11121314151617
18192021222324
252627282930

» Архив записей

» Друзья сайта
  • Официальный блог
  • Сообщество uCoz
  • FAQ по системе
  • Инструкции для uCoz


  • Copyright MyCorp © 2024
    Сделать бесплатный сайт с uCoz