SeoNews.com.ua - SEO & Search Engine News
Поисковая оптимизация
Популяризация токенов способна значительно повысить уровень безопасности в сфере электронной коммерции
Эксперты предлагают заменить передаваемые на торговые серверы финансовые данные электронными идентификаторами, не имеющими ценности для злоумышленников.

Как сообщает издание Network World со ссылкой на доклад одного из крупнейших производителей токенов безопасности, широкомасштабное внедрение такой меры, как дополнительные этапы идентификации, способно в значительной степени сократить количество успешных хакерских атак в сфере электронной коммерции.


Персональные данные граждан РФ будут храниться на российских серверах
Депутаты предлагают изменить дату вступления в силу закона «О персональных данных», согласно которому соцсети и сервисы электронной почты будут обязаны хранить личную информацию пользователей на российских серверах.

Как сообщает издание "Известия", депутаты Госдумы РФ выступили с предложением внести некоторые коррективы в закон «О персональных данных», согласно которому социальные сети и сервисы электронной почты будут обязаны сохранять информацию о конфиденциальных данных граждан РФ на серверах, которые располагаются на территории России. Указ был подписан В. Путиным в июле текущего года, и вступает в действие 1 сентября 2016 года. Тем не менее, госчиновники предлагают ускорить процесс и узаконить перенос личной информации пользователей уже с 1 января следующего года.

Пользователям Wi-Fi в московском метро скоро придется регистрироваться
По просьбе руководства столичного метрополитена компания «Максима Телеком» разработала программное обеспечение, посредством которого будет происходить аутентификация пользователей.

В скором времени все желающие воспользоваться услугами Wi-Fi в Московской подземке смогут сделать это только по регистрации. По просьбе администрации метро компания «Максима Телеком» разработала ПО для аутентификации пассажиров. Новая система будет распознавать посетителей подземки по IMEI-номерам их девайсов, пишут «Известия».

Зарубежным компаниям могут ограничить доступ к российским гостайнам
По предварительным данным, лишиться соответствующей лицензии могут четыре крупнейших аудитора - Deloitte, EY, KPMG и PwC.

Как сообщает издание «Ведомости» со ссылкой на собственных информаторов в двух компаниях из четверки крупнейших зарубежных аудиторов в РФ, отечественные силовые структуры усилили давление на компании и в перспективе могут лишить их возможности работать с данными, представляющими собой государственную тайну.
Началась последняя неделя льготной регистрации на конференцию CEE-SECR «Разработка ПО»
На конференции рассмотрят все аспекты разработки программного обеспечения.

Стартовала последняя неделя льготных летних цен на конференцию CEE-SECR «Разработка ПО» — одно из важнейших событий ИТ-индустрии в России.

До 31 августа регистрационный взнос будет ниже финальной цены на более чем 37%. Кроме того, продолжают действовать специальные предложения для студентов, аспирантов и групп от трех человек. Все скидки суммируются


Seo News
Facebook готовит исправление уязвимости, заставляющей iPhone совершать звонки
Разработчики социальной сети намерены устранить брешь в ближайшем обновлении мобильного приложения для iOS.

Как сообщают представители социальной сети

Facebook, разработчики компании намерены в ближайшее время выпустить обновление безопасности для своего мобильного приложения для iOS-устройств. Речь идет об опасной уязвимости, эксплуатация которой позволяет злоумышленникам удаленно совершать звонки со смартфонов iPhone, принадлежащих жертвам атаки. Для этого достаточно вынудить пользователя перейти по специально сформированной вредоносной ссылке.
95% электронных уведомлений от Facebook успешно шифруются

В Facebook отметили рост количества провайдеров, развертывающих шифрование с помощью STARTTLS.

95% посылаемых Facebook по электронной почте уведомлений, являются зашифрованными. Электронные письма шифруются с помощью свойства протоколов под названием «Совершенная прямая секретность» (Perfect Forward Secrecy, PFS) и строгой проверки подлинности сертификата. Об этом сообщил инженер Facebook Майкл Эдкинс (Michael Adkins), занимающийся вопросами неприкосновенности сообщений пользователей.

Microsoft представит Windows 9 в конце сентября

В ранней версии Windows 9 будет добавлено переработанное меню "Пуск" и, возможно, голосовой помощник Cortana.

В компании Microsoft планируют представить следующую версию ОС Windows во время специального события для прессы, которое состоится в конце сентября. Как сообщает издание The Verge, ссылаясь на собственные источники, в настоящее время представители корпорации собираются рассказать об изменениях в новой версии Windows, получившей кодовое наименование «Threshold» («Предел»), 30 сентября этого года. Напомним, что следующая версия Windows в настоящее время находится в разработке, и в Microsoft планируют выпустить предварительную версию ОС для разработчиков (Developer Preview) 30 сентября или позже.

Google AdWords забанит пейнтбольное и прочее оружие
Менее чем через месяц Google запретит рекламу оружия для страйкбола и пейнтбола, пневматических пистолетов, боеприпасов, обойм и портупей. Жалобы на такую рекламу ранее поступали в Google AdWords Help.

Google опубликовал предварительную версию изменения политики, которая в настоящее время позволяет рекламировать такие товары на AdWords.

Вот образец письма, отправленного рекламодателям AdWords:

«Уважаемый рекламодатель AdWords,

Мы извещаем вас об изменении правил размещения рекламы Google, которые могут повлиять на ваш аккаунт AdWords.


Уязвимость в Windows продолжает создавать опасность для пользователей
Наиболее часто уязвимость CVE-2010-2568 эксплуатировали на ОС Windows XP.

Согласно документу, опубликованному Лабораторией Касперского, злоумышленники продолжают эксплуатировать уязвимость CVE-2010-2568 , несмотря на “возраст” бреши. Недавно Лаборатория Касперского обнаружила десятки миллионов эксплоитов, направленных на устранение ошибки в период с ноября 2013 по июнь 2014 года, которые не устранили ее. Жертвами кибератаки стали 19 миллионов пользователей по всему миру.

Search Engine News
Подпишись на рассылку и будь всегда в курсе наших новостей.

Поиск по сайту

По Вашему запросу найдено 28 ответов (Результаты запроса 1 - 20) :
 
Категория: SEO News
Риски при поисковой оптимизации интернет-сайта
Риск - неотъемлемая сторона человеческой деятельности. Нас постоянно окружают риски: когда мы садимся за руль своего авто,
то рискуем въехать в зад резко затормозившего перед нами автомобиля, когда мы поздно возвращаемся домой
по темной улице, то рискуем встретиться с толпой подростков, которые обязательно попросят “закурить” и
даже когда мы раскручиваем сайт в “Интернете”, то сталкиваемся с некоторыми рисками.
Категория: SEO News
IBC Russia: Исследование алгоритмов поисковых машин
С 5 по 6 декабря 2013 года в Москве, в центре Digital October, проходила главная отраслевая конференция для рынков интернет-маркетинга и веб-разработки «Internet Business Conference Russia». Организаторами мероприятия выступили «Ашманов и партнеры» и РАЭК.

Послеобеденную часть первого дня конференции продолжила секция 3 потока «Поисковая оптимизация и продвижение», которая была посвящена исследованию алгоритмов поисковых машин. Модератором стал Алексей Иванов, ведущий эксперт ISEE Marketing.

Категория: SEO News
SEO Conference 2013: О хороших донорах, трафике и оптимизации сайтов под Mail.ru
Уже в четвертый раз SEO Conference собирает в Казани специалистов по продвижению со всего мира. В первый день мероприятия, 26 сентября, специалисты по интернет-маркетингу поделились с участниками конференции альтернативными методами привлечения трафика, которые успешно применяют в работе, а представители поисковиков рассказали о том, как правильно оптимизировать под них свои сайты.
Категория: SEO News
Все что вы хотели знать о хороших, плохих и пустых ссылках
Ссылки всегда были популярной темой для дискуссий о поисковой оптимизации. Не стал исключением и текущий год, ознаменовавшийся Penguin, противостоянием продвижения ссылками или через социальные сети, SEO с отрицательным эффектом и поиском путей избавления от нежелательных ссылок. Автора статьи иногда спрашивают, как можно отличить хорошую ссылку от плохой?
Категория: SEO News
Пингвин 2.0: Взгляд Google на ссылки
Уже довольно долгое время Google ведет беспрецедентную кампанию за чистоту поисковой выдачи – против низкокачественных сайтов и ссылок. Несмотря на то, что дело это хорошее, последние действия поисковика уже не одного вебмастера поставили в тупик. Люди просто не понимают, почему прекрасно работавшие раньше «традиционные» методы интернет-маркетинга и поисковой оптимизации (SEO) сегодня действуют против них. Дошло до того, что некоторые специалисты прямо обвиняют Google в непоследовательности. Ведь поначалу поисковик не преследовал за те приемы наращивания ссылочной массы, из-за которых сегодня терпят крах множество успешных проектов. Google просто «не рекомендовал» их использование. Теперь же он «перешел от слов к делу».
Война слов: Разрушаем мифы о поисковой оптимизации
Ли Одден (Lee Odden) – профессионально занимается интернет-маркетингом и PR. Он специализируется на маркетинге, нацеленном на потребителя, в контентной, поисковой и социальной средах. Ли является автором книги об интеграции SEO, социального и контент-маркетинга, вышедшей под названием "Optimize" в издательстве Wiley, и запустил один из наиболее популярных и старых блогов о маркетинге – Online Marketing Blog.


Недавно автор опубликовал статью, развенчивающую мифы о социальных сетях, после чего задался вопросом, почему и в других маркетинговых каналах и тактиках хватает неподтвержденных догадок, утверждений малосведущих людей и противоречий? При этом, лишь SEO может сравниться с продвижением в социальных сетях по количеству ошибочных теорий и объему использования устаревшей информации, мешающих успешному движению вперед.

Категория: SEO News
CyberMarketing 2012: практические советы по продвижению сайтов
Первый доклад представил Александр Митник (руководитель обучающего центра CyberMarketing). Свой доклад автор посвятил нестандартным методам SEO. Первоначально планировалось, что Александр будет делать доклад после Сергея Людкевича и Алексея Жукова, которые должны были говорить о двух столпах SEO («замороженный топ» — Сергей Людкевич, и «1000 чешек» — продвижение по 1000 низкочастотных запросов — Алексей Жуков). Но в программу были внесены некоторые изменения. Александр Митник представил ряд практических кейсов и рассказал о том, как увеличить покупающий трафик на сайт при существующей ситуации в SEO.
Что изменилось в SEO под Google за 2012 год
За последние 12 месяцев (с ноября 2011 года по ноябрь 2012) произошли существенные изменения Google, которые сказались на работе SEO-специалистов.

Репутация и траст

Самыми часто используемыми словами для вебмастеров стали репутация и траст. Здесь речь идет о достоверности содержания сайта, дизайне, внешних ссылках, а не об управлении репутацией с точки зрения SEO. Конечно, Google, как и другие поисковые системы, говорил о качестве сайтов и наказывал за плохое SEO с самого первого дня своей работы, но именно сейчас он стал как никогда лучше идентифицировать различные нарушения. У Google появились зубы.

Категория: Wiki » С

Серые методы поисковой оптимизацииметоды поисковой оптимизации, которые официально не запрещены поисковыми службами, но, тем не менее, могут быть расценены как неестественные средства продвижения сайта.

Содержание

Описание

Серая оптимизация является основным инструментом продвижения сайтов. В отличие от чёрных методов, серые редко приводят к наложению бана или штрафных санкций со стороны поисковых систем, что и позволяет специалистам применять их для выведения ресурсов на первые позиции за сравнительно короткое время.

К серым методам поисковой оптимизации относятся увеличение частоты ключевых слов в текстах страниц, что часто приводит к их нечитаемости, дорвеи без редиректа, когда в случае выхода на дорвей не запускается автоматическое перенаправление на продвигаемый ресурс, покупка ссылок и многое другое.

Увеличение частоты ключевых слов

При определении релевантности поисковые системы в первую очередь обращают внимание на то, сколько раз на странице встречается фраза, тождественная пользовательскому запросу. Этот параметр называется частотой ключевого слова. Чем он выше, тем релевантнее считается сайт. До недавнего времени оптимизаторы специально увеличивали частоту ключевых слов вплоть до полной нечитаемости текстов. На данный момент поисковые системы активно борются с подобными методами и снижают ранжирование при их выявлении.

Для определения частоты ключевых слов используются специальные математические алгоритмы, высчитывающие количество вхождений запросов на объём определяемого текста. При этом оптимальным соотношением считается 3-5%. Так как роботы поисковых систем не способны оценивать тексты с точки зрения читабельности, это обстоятельство и позволяет оптимизаторам увеличивать частоту ключевых слов до определённого предела, что, с одной стороны, нарушает правила использования поисковых систем, а с другой – не выходит за рамки установленных ими критериев.

Дорвеи

К методам серой оптимизации относится создание «серых» и «белых» дорвеев:

  • «Серые дорвеи». Их главной целью является передача главному сайту приобретённых показателей, то есть выступание в роли доноров. В отличие от чёрных видов, серые имеют осмысленное текстовое содержание и по своей сути являются полноценными сайтами.
  • «Белые дорвеи». Данный вид прежде всего несёт рекламную нагрузку и не нарушает лицензии поисковых систем. При их создании используется оригинальный контент и разрабатывается привлекательное графическое оформление. При попадании на «белый дорвей» посетитель видит рекламный текст со ссылками на продвигаемый сайт и при желании может переходить по ним.

Покупка ссылок

Покупка ссылок является одним из основных способов продвижения сайтов в поисковых системах и по своей сути представляет размещение ссылок на сторонних ресурсах в целях увеличения показателей продвигаемых ресурсов. Как правило, для этого используются специализированные биржи. Поисковые системы стараются бороться с подобным методом, но его использование не может привести к бану.

Отношение поисковых систем

Серая оптимизация, в отличие от чёрной, осуществляется на грани установленных поисковыми системами критериев. Именно поэтому в некоторых случаях поисковые системы могут временно или постоянно заблокировать такой сайт. К тому же требования, предъявляемые ими к продвижению ресурсов, постоянно меняются и то, что раньше считалось законным, может в недалёком будущем стать уже запрещённым.

№10: Бан

Категория: Wiki » Б

Бан – термин, произошедший от английского слова “запрет”. В области, относящейся к SEO-оптимизации, бан прежде всего значит запрет на индексацию, наложенный поисковыми системами на сайт. Этой мере сайт может быть подвергнут, если поисковые роботы обнаружили нарушения, нечестные методы продвижения сайта, в частности, применение к сайту приемов черной оптимизации. Попав в бан, сайт с большим трудом может выбраться из-под запрета. Даже, если он полностью приведен в норму и соответствует правилам, модераторы поисковой системы не всегда сразу соглашаются на снятие бана. Нередко бывают и случаи наложения постоянного бана. Если ранее сайты блокировались исключительно вручную, то сейчас учащаются случаи автоматического бана.


Виды нарушений

Какие именно нарушения могут подвергнуть сайт внесению в черный список? Существуют статистические исследования, которые утверждают, что самое злостное и популярное нарушение – это черная оптимизация, то есть запрещенные приемы продвижения сайта:

  • клоакинг (создание дублирующих страниц, одна из которых видна индексирующему роботу, а другая – посетителю)
  • недобросовестные манипуляции со ссылками
  • переспамленность ключами в текстах и заголовках
  • злостные нарушения в мета-тегах
  • перенаправление (посетитель, зайдя на сайт, перенаправляется автоматически или вручную на “нужную” страницу)
  • скрытый текст
  • заспамленность ссылками
  • купленные ссылки на некачественных ресурсах
  • частое повторение Nofollow на странице
  • использование неуникального контента, нарушение авторских прав
  • распространение вирусов.


Признаки бана

Вообще, Яндекс, например, проверяет сайт примерно по большому числу факторов, прежде чем сделать заключение о необходимости бана. Санкции по полному исключению сайта из ранжирования и индексирования поисковой системы накладываются на сайт без предварительного предупреждения и обсуждения с владельцем сайта. Признаком того, что сайт попал в бан является то, что сайт перестает индексироваться, не попадает в выдачу ни по одному из ключевых слов. Если сайт попал в бан в одной из поисковых систем, совсем не означает, что его забанит другая система, однако, это весьма тревожный сигнал. В Яндексе и Google существуют специальные сервисы, где можно узнать, забанен ли сайт и почему к нему были применены запретные санкции. Бан сайта не всегда сочетается с понижением ТИЦ или PR. Репутация сайта, бывшего забаненным, испорчена и высоких позиций, выйдя из бана, добиться непросто.



В Интернете могут встречаться слова-синонимы: баня

Категория: Wiki » К

Клоакинг (от английского cloak – маска, прикрытие) – способ чёрной оптимизации сайтов, заключающийся в различных формах выдачи информации поисковым роботам и пользователям на одной и той же странице. Так как удобочитаемые тексты нередко проигрывают по ранжированию оптимизированному под ключевые слова контенту, некоторые веб-мастера прибегают к созданию страниц в двух вариантах, показывая ту или иную информацию пользователям и поисковым роботам в зависимости от их IP-адресов или User Agent.

Содержание

Описание

По своему действию клоакинг напоминает использование дорвеев, но, в отличие от последних, не требует организации автоматического перенаправления или ручного перехода пользователей на нужную страницу, что не позволяет конкурентам увидеть оптимизированную страницу и использовать её в своих разработках. Однако клоакинг является более трудоёмким способом оптимизации, чем создание дорвеев. Для его реализации потребуются не только навыки программирования, но и базы данных поисковых роботов.

Способы создания

Так как запросы пользователей и поисковых роботов отличаются между собой по IP-адресу и User Agent, это предоставляет возможность веб-мастеру наладить автоматическую выдачу различной информации – поисковым системам оптимизированные страницы, а посетителям обычное наполнение сайта. Выполняется это при помощи специальных программ и скриптов:

  • Клоакинг по User agent. Является наиболее простым методом, основанным на проверке данных User agent, в которых передаётся имя поискового робота. К примеру, один из алгоритмов Яндекс при входе на сайт представляется как Yandex/1.01.001 (compatible; Win16; I). Используя подобную информацию о поисковых системах, возможно создать специальные скрипты, которые при запросах будут сравнивать User agent посетителей с собранной базой имён роботов и при их обнаружении выдавать оптимизированный контент.

Несмотря на эффективность, такой способ легко распознать. Для этого пользователю достаточно с помощью специальных программ зайти на сайт под именем робота и получить оптимизированную страницу вместо обычной. Как правило, это делается конкурентами для выявления методов оптимизации или предоставления полученной информации в службу поисковой системы, которая может наложить на продвигаемый сайт санкции.

  • Клоакинг по IP-адресу. Основывается на проверке IP-адресов, используемых роботами, и является наиболее надёжным способом подмены страниц, так как IP-адрес практически невозможно подделать. Располагая информацией о корпоративных подсетях поисковых систем, можно выдавать нужные страницы всем посетителям из указанных диапазонов, что предотвратит выявление обмана при ручной проверке сотрудниками поисковой системы. Однако для реализации данного клоакинга потребуется база данных со всеми используемыми адресами.
  • Комбинированный клоакинг. Для определения роботов применяются сразу два вышеописанных способа – проверка данных в User-agent и определение IP-адресов, что повышает эффективность метода.

Отношение к поисковым системам

Большинство поисковых систем, в частности «Яндекс», определяют клоакинг как нечестный способ продвижения сайтов и применяют к подобным ресурсам штрафные санкции. Часто веб-мастера создают страницы не просто оптимизированными, а в корне отличными от оригинальных. К примеру, выдавая поисковому роботу обычный текст с часто используемыми ключевыми словами, а пользователям рекламные ссылки с предложением приобрести продвигаемые товары. Но клоакинг не всегда рассматривается поисковыми системами в качестве обмана. Формирования страниц в зависимости от параметров запросов может использоваться и в таких целях, как выдача пользователям страницы в зависимости от установленного в их браузере языка, перенаправление посетителей на зеркало сайта или показ версии сайта, корректно отображающегося в специфическом браузере.

На данный момент клоакинг широко используется большинством крупных сайтов, в частности:

  • сервисами Google;
  • ресурсом Amazon.com, который варьирует выдачу товаров в зависимости от ранее просматриваемых пользователем страниц.
  • Yelp.com, применяющим геотаргетинг;
  • NYTimes.com, приглашающим зарегистрироваться на сайте после 5 кликов;
  • Forbes.com, на котором невозможно попасть на главную страницу, не просмотрев прежде рекламный ролик;
  • ComputerWorld.com, показывающим своим посетителям огромное количество рекламных окон, а роботам обычный html-текст.

Классификация типов клоакинга

В зависимости от предназначения клоакинг также может делиться на:

  • «Белый», представляющий собой перенаправление пользователей в целях повышения удобства работы с сайтом и не нарушающий лицензии поисковых систем. Сюда также относится геотаргетинг.
  • «Серый». Часто к размещаемым статьям веб-мастера добавляют возможность их распечатывания или показа в текстовом виде, что порождает возникновение различных вариантов одного и того же материала. Ссылки на них с других блогов или сайтов могут привести к индексации контента в качестве неуникального. В целях избегания этого явления на второстепенные ссылки ставится специальный редирект, направляющий ссылочный вес на оригинальную статью. Несмотря на нарушение правил, подобные методы приносят пользу посетителям и не приводят к наложению поисковых санкций.
  • «Черный». К этому виду относится любой клоакинг, выдающий пользователям нерелевантный текст или обманывающий поисковые роботы при помощи предоставления им оптимизированного контента в целях повышения ранжирования.
Категория: Wiki » Р

Реципиент – одна из сторон поискового продвижения. Реципиентом называется сайт, на который пользователя переадресуют ссылки, размещённые на сторонних ресурсах в рамках ссылочной стратегии оптимизации. Другими словами, реципиент – это и есть продвигаемый сайт, на который ведут внешние ссылки с других сайтов. Ресурсы-реципиенты всегда рассматриваются в паре с сайтами-донорами, на которых как раз и размещаются внешние ссылки. Реципиента и донора невозможно рассматривать порознь, ибо они как две стороны медали – неразрывно связаны. И всё же реципиентам присущи особенности, ставящие их особняком.

Содержание

Кто на новенького?

Очевидно, что в продвижении в большей степени нуждаются сайты новые, только-только появившиеся на свет. В этом и заключается одна из особенностей статуса реципиента. Реципиент – почти всегда новичок. Это вовсе не означает, что в продвижении не нуждаются сайты-ветераны. Ресурсам репутационным, или, как говорят специалисты, трастовым, нельзя успокаиваться и почивать на лаврах в верхних строчках поисковой выдачи. Этим сайтам нужно предпринимать определённые шаги для сохранения своих позиций, а то, глядишь, вчерашний новичок и потеснит с насиженного места. Однако мероприятия по удержанию лидерских позиций менее трудозатратные для оптимизатора, чем по продвижению сайта новорождённого.

Едва столкнувшись с технологией поисковой оптимизации, человек видит, что первым по значимости и скорости продвижения способом продвижения является постановка внешних ссылок на продвигаемый сайт. Специалисты нетерпеливые, склонные «идти в атаку», принимаются делать свой сайт реципиентом максимального количества доноров. Случается, ссылочное продвижение идёт настолько агрессивно, что поисковики не продвигают такой сайт, а «задвигают» на задворки выдачи. Какое продвижение считается агрессивным? Признаков, на самом деле, не так много.

Во-первых, размещение гигантского количества внешних ссылок, что сигнализирует поисковым системам о явной покупке интереса к продвигаемому сайту, а не о его истинной ценности для пользователя. Во-вторых, размещение внешних ссылок на сайтах, которые от тематики продвигаемого ресурса далеки. Ну и, в-третьих, попытки продвинуть ресурс методами чёрной и серой оптимизации. Сайты, уличённые поисковыми системами в вышеперечисленном, наказываются либо штрафами, либо исключением из поискового индекса.

Медицинская аналогия

Агрессивное продвижение реципиента можно сравнить с попытками быстрой, но, увы, бесполезной реанимации больного. Представьте, что единственным способом спасти жизнь человека является переливание крови. Донор и реципиент в чистом виде. Эта медицинская технология уже отработана годами. А теперь вообразите, что неопытный медик, не обладая достаточными знаниями вопроса, пытается ускорить процесс реанимации, переливая не сто граммов крови, а десять литров. Или берёт для переливания кровь, которая вообще другой группы, чем кровь пациента. Результат очевиден.

Точно так же и в продвижении сайтов. Большая ссылочная масса – это избыточная «кровь», а размещение на неродственных по тематике сайтах – это разница в «группах крови». Законы успешного поискового продвижения гласят. Первое – количество внешних ссылок для сайта-реципиента должно быть дозированным, и наращиваться должно постепенно. И второе – внешние ссылки должны размещаться на тематически родственных сайтах или, если сайт «чужой», так органично вписываться в его контент, чтобы асессор поисковой системы не заподозрил неладного. Такое продвижение сродни правильному переливанию крови. В обоих случаях реципиенты продолжают счастливо жить. Один в реальном мире, другой – в прекрасном виртуальном космосе по имени Интернет.

С другой стороны

Продвигаемый сайт может стать реципиентом не только при поисковой оптимизации, а и при продвижении в интернет-сообществах. Если пользователи социальных сетей или участники форумов ссылаются на продвигаемый сайт, если он таким образом увеличивает трафик, то, как реципиент, он ничем не отличается от других таких же ресурсов. Правда, ценными внешние ссылки с форумов и социальных сетей назвать можно лишь условно – поисковые машины придают им не такой ссылочный вес, как ссылкам с трастовых ресурсов.

Здесь аналогия с медициной, наверное, неуместна. Скажем, форум Searchengines или сеть Twitter донорами вряд ли можно считать. И сайт, на который ссылаются пользователи этих ресурсов, напрямик их реципиентом не является. Однако популярность сайта среди участников вышеназванных сообществ может достичь достаточно высоких значений, и, кто знает, может быть, необходимость в поисковом продвижении для такого популярного сайта окажется уже не такой настоятельной. Пользователи, размещающие ссылки на продвигаемый сайт, буквально вдыхают в него жизнь, вливают свою энергетику, и ресурс приобретает высокую репутацию. Веб-мастеру остаётся её только поддерживать.

Смена статуса

Звёздный час любого сайта-реципиента – это его превращение в донора. Это происходит, когда продвигаемый сайт набирает такую высокую репутацию, что поисковые машины начинают доверять ссылкам, которые он размещает на своих страницах. Да-да, так бывает. Вчерашний реципиент сам становится донором и помогает другим сайтам выходить в топ поисковых систем.

Впрочем, по-настоящему успешный сайт никогда не перестанет быть реципиентом. Оптимизатор такого сайта, без сомнения, человек дальновидный, а посему будет всегда заинтересован в том, чтобы на его сайт ссылались сторонние ресурсы. Диалектика.

Категория: Wiki » Б

Белые методы поисковой оптимизации – это методы, которые не нарушают правила использования поисковых систем или относятся к комплексу мероприятий интернет-маркетинга.

Содержание

Описание

В отличие от широко распространённых способов продвижения сайтов, белая оптимизация исключает применение каких-либо способов, направленных на искусственное наращивание позиций в поисковой выдаче. Её процессы прежде всего построены на естественном развитии проектов, анализе поведения потребителей и осуществлении PR-кампаний, которые и позволяют добиваться возрастания целевой посещаемости и популярности ресурса среди пользователей сети Интернет.

Все методы белой оптимизации можно разделить на два основных вида: внутренние и внешние.

Внутренняя белая оптимизация

Внутренняя белая оптимизация направлена на общее улучшение сайта. Сюда входит чёткая структуризация, использование уникального контента, создание SiteMap, низкая тошнота текстов, внутренняя перелинковка, хороший трафик, высокий траст сайта, создание RSS, отслеживание некачественных ссылок, грамотное составление семантического ядра и другие подобные мероприятия.

Важную часть среди них занимает оптимизация контента, подразумевающая размещение в текстовом наполнении необходимого до оптимальной плотности количества ключевых слов (как правило, 5-7%). Возможно также увеличение веса слов путём выделения их жирным шрифтом. Стоит отметить, что все эти манипуляции выполняются с сохранением как можно более естественного вида текстов. В противном случае поисковые системы могут расценить их в качестве спама.

К способам белой оптимизации также причисляется работа над адресами сайтов и файлом robots.txt. До недавнего времени к ней относилась и оптимизация мета-тегов. Однако в связи с бесчисленными попытками оптимизаторов проспамить их ключевыми словами и фразами, не имеющими отношения к содержанию страниц, большинство поисковых систем их не учитывает.

Внешняя белая оптимизация

Внешняя белая оптимизация – это распространение информации о существующем сайте, достигаемое за счёт проведения рекламных кампаний и других технологий маркетинга. Сюда также можно отнести регистрацию ресурсов в таких крупных каталогах, как DMOZ, Яндекс.Каталог, или осуществление статейного продвижения.

Последний метод, вопреки распространённому мнению, лишь условно относится к белым. На данный момент поисковые системы не способны распознавать покупные ссылки в текстах, что открывает широкие возможности оптимизаторам проводить самостоятельную раскрутку сайтов без боязни наложения на них штрафных санкций. Но по своей сути данный способ представляет искусственное наращивание показателей, что нарушает правила использования поисковых систем.

Преимущества

Так как белые методы направлены не на спамирование поисковых систем, а на предоставление интересной информации, повышение функциональности сайтов и уровня удобства работы с ними, это благоприятно сказывается на их популярности среди пользователей и обеспечивает естественный приток посетителей. Но главным достоинством белой оптимизации всё же является достижение стабильных показателей, которые не зависят от поисковых систем и не утрачивают своих значений при изменении их алгоритмов.

№14: Дорвей

Категория: Wiki » Д

Дорвей – сайт, использующийся оптимизатором исключительно для переадресации пользователя на продвигаемый ресурс. Дорвей не представляет для посетителя никакой ценности. Зачастую пользователь даже не успевает всмотреться в страницу дорвея, автоматически перенаправляясь на продвигаемый сайт. Контент дорвея, как правило, лишён какого бы то ни было смысла. Часто это просто набор бессвязных фраз, в который в обилии введены ключевые слова. Именно в этом смысл дорвея – попасть в выдачу поисковиком по ключевым словам. Дорвеи вредят своей бесполезностью пользователям и отвлекают ресурсы поисковых машин, по сути являясь мусором. Поэтому все интернет-поисковики нещадно борются с дорвеями.

Содержание

Описание

На заре развития алгоритмов поисковых систем релевантность сайтов поисковым запросам определялась только наличием качественного содержания и грамотно подобранных ключевых слов. Ввиду того что оптимизировать страницы под все используемые запросы с сохранением читабельности текста невозможно, создание дорвеев являлось наиболее оптимальным выходом для владельцев сайтов. Однако такой способ оптимизации просуществовал лишь до появления ссылочного ранжирования. С её введением функции дорвеев изменились и стали не только перенаправлять пользователей на главный сайт, но и передавать ему собственный ссылочный вес.

Виды дорвеев

Дорвеи, как и любые другие сайты, имеют множество параметров и характеристик, но, несмотря на это, их можно выделить в три основные группы, условно называемые «черные», «серые» и «белые».

  • «Чёрные дорвеи». Представляют собой страницу, содержащую автоматический редирект на главный сайт, что нарушает правила пользования поисковыми системами. Могут реализовываться различными способами, но, как правило, для этого применяются либо специальные мета-теги, либо java-скрипты. Обычно такие дорвеи не содержат осмысленного содержания ввиду того, что пользователь при переходе не имеет возможности просмотреть текст. Их задачей является лишь предоставление поисковым роботам оптимизированной страницы в целях повышения позиций в выдачах.

Чаще всего «чёрные дорвеи» создаются автоматически при помощи различных программ (доргенов), генерирующих тексты с указанными запросами. Для снижения денежных затрат такие дорвеи регистрируются на бесплатных хостингах, что и является их отличительной особенностью.

  • «Серые дорвеи». К этой группе относятся дорвеи, не использующие автоматический редирект. В отличие от «черных» видов, их целью выступает не привлечение целевых посетителей, а передача главному сайту ссылочного веса. Для этого их страница создаётся с осмысленным текстом, в котором размещаются несколько ссылок, ведущих на продвигаемый ресурс. После раскрутки и присвоения таких показателей, как PR или ТИЦ, «серые дорвеи» способны увеличивать ссылочную массу главных сайтов.
  • «Белые дорвеи». Такие сайты не нарушают лицензии поисковых систем и даже несут полезную информацию пользователям. При их создании всегда пишется оригинальный осмысленный контент и используется графическое оформление. При попадании на «белый дорвей» пользователь кроме самого текста рекламного содержания видит ссылки на продвигаемый сайт и при желании может перейти по ним.

Приведённая классификация дорвеев является весьма условной ввиду того, что чётких границ, отделяющих одну группу от другой, не существует.

Роль в SEO

На данный момент в сети Интернет дорвеи используются в качестве дополнительного метода продвижения сайтов. Несмотря на санкции, предъявляемые поисковыми системами в отношении подобных способов, при соблюдении простых рекомендаций они, как правило, не могут негативно повлиять на позиции главных ресурсов. Однако создание качественных дорвеев требует длительного времени и по сути ничем не отличается от раскрутки полноценного сайта.

Дорвеи также используются в системах контекстной рекламы, осуществляющих оплату за клик. Обычно подобные сервисы тщательно отбирают сайты, однако участвующие площадки имеют возможность организовывать собственные рекламные сети, что и открывает широкие возможности для веб-мастеров в получении прибыли путём создания огромного количества генерируемых дорвеев. После их индексации выводимые в поисковых результатах страницы получают возможность увеличить приток трафика.

Отношение к поисковым системам

При выявлении дорвеев поисковые системы могут наложить два вида санкций – пессимизацию и бан. В лицензии системы Яндекс отмечается, что создание механизмов, перенаправляющих посетителей на целевую страницу, является поисковым спамом, что ведёт за собой исключение подобного сайта из индекса.

Однако в действительности наложение санкций только по факту наличия на ресурсе автоматического редиректа происходит редко, так как в сети Интернет существует множество авторитетных сайтов, использующих перенаправление в благих целях. К примеру, сайт www.microsoft.ru имеет редирект на свой дополнительный ресурс.

В отношении же грамотно разработанных «серых» и «белых» дорвеев, соответствующих требованиям поисковых систем, предъявление каких-либо претензий невозможно. К тому же даже при наложении санкций сайт, на который ссылаются дорвеи, не может попасть под бан или пессимизацию. Исключением являются лишь случаи, когда дорвей размещен на поддомене основного адреса.

Методы борьбы

Обнаружение дорвеев представляет для поисковых систем сложную задачу. Несмотря на то что современные алгоритмы способны распознавать часто используемые для перенаправления пользователей скрипты и мета-теги, существует ещё множество других способов, позволяющих это осуществить. Однако на данный момент поисковые системы всё же имеют в своём арсенале довольно эффективные инструменты по распознаванию подобных способов.

Одним из них является алгоритм поисковой системы Google Phrase Rank, учитывающий не только слова в тексте, но и их частотность. При её отклонении ранжирование сайта может быть снижено. Также существует такое понятие, как индекс дополнительных результатов. Если страница имеет автоматически созданный контент, она попадает не в основной индекс, а в дополнительный, который показывается в выдачах только при отсутствии релевантных документов из основного.

Однако, как отмечают многие специалисты, несмотря на наличие множества поисковых алгоритмов, ручная модерация выдачи продолжает выступать основным способом выявления дорвеев.

Категория: Wiki » С

Спамдексинг – общее названия для методов неэтичного продвижения сайта, так называемая “черная оптимизация”. Это довольно большой комплекс нелегитимных приемов, направленных на обман поисковой системы, их алгоритмов. Топ в поисковой выдаче является в этом случае главной целью, но интересы пользователей, этические нормы, а также права на интеллектуальную собственность не соблюдаются.

По сути, спамдексинг как комплекс экстремальных мер действительно может оказать эффект по выведению сайта в первые ряды, однако, этим будет нанесен серьезный удар по имиджу сайта, клиента, а рано или поздно недобросовестный сайт будет забанен. Многие называют эти меры непрофессиональными и незаконными, но оба определения неточны, так как юридического закона нет, а учитывая, что черная оптимизация стала практически профессией и также совершенствуется, то лучше называть их некорректными.

Почему многие прибегают к спамдексингу? Этот путь часто бывает короче и проще, чем путь честной оптимизации, но, как было сказано выше, он еще чаще обрывается на полпути. Некоторые действия, которые относятся к некорректным, веб-мастер может допустить неумышленно, по неопытности, но поисковая система прочтет их как спамдексинг, не вдаваясь в подробности.

Признаки спамдексинга

Какие наиболее характерные черты спамдексинга? Специалисты в первую очередь называют:

  • наполнение мета-тегов несоответствующими ключевыми словами
  • наполнение контента избыточными ключевыми словами
  • скрытые тексты на страницах – этот прием обычно применяется таким образом: на белой странице (например) набирается черным текст для посетителей, это грамотный корректный текст, а белым цветом набирается текст для поисковых роботов – ключевые слова, на которые “поведется” машина)
  • использование мелкого, нечитабельного текста (как один из вариантов предыдущего приема)
  • некорректное использование заголовков
  • создание дорвеев, переадресация
  • спамное, некорректное использование ссылок
  • клоакинг, то есть создание страниц, которые имеют два содержания: одно для пользователей, а второе для поисковых машин

Нужно также добавить, что поисковые машины могут пропустить разовое нарушение, но злостное, многократно повторенное и размноженное, обязательно будет выявлено. Мерой пресечения чаще всего является бан.

Алгоритмы поисковых систем против спамдексинга

Недобросовестные методы продвижения сайтов в поисковых системах полностью изменили характер отношений “сайт – поисковая система”. Мало того, что они основательно замусорили Интернет и затруднили работу поисковых систем. Если раньше задача системы была только определить релевантность сайта согласно запросу, то теперь поисковая система должна просеять сайты через фильтры, отделяя зерна от плевел. Теперь изначально система относится к сайту “недоверчиво” и ему еще надо доказать свою состоятельность и заслужить доверие поисковика. Потребовалось создание новых программ, на основании которых отфильтровываются сайты. Алгоритмы поиска перманентно меняются для того, чтобы быть на шаг впереди тех, кто их пытается обмануть.

Этика и методы оптимизации поисковых системЭтические принципы оптимизации поисковых систем часто обсуждаются в Интернете, но довольно редко определяются каким-либо ясными и четко выраженными способами. Владельцы веб-сайтов часто слышат о так называемых профессионалах оптимизации поисковых систем из лагеря черных или белых шляп. Некоторые веб-мастера даже знают о некоторых методиках серых шляп и о способах проведения оптимизации в таком нетривиальном виде.

Не существует четких и быстро действующих правил, которые можно регулярно использовать, по крайней мере, в сфере получения высокого рейтинга в поисковых системах. Настало время выяснить, имеют ли эти понятия какое-либо реальное значение и играет ли этика какую-либо роль в практике оптимизации поисковых систем.

Прежде чем мы начнем наше обсуждение этики оптимизации поисковых систем, я хочу максимально прояснить свою позицию. Я на сто процентов поддерживаю белые методики оптимизации поисковых систем и в своей собственной деятельности использую исключительно их. На сайтах любого из моих клиентов абсолютно никогда не используются методы черных шляп и даже не используются методы серых шляп. Все мои клиенты знают о моей позиции в этом вопросе и полностью ее поддерживают, поскольку для них самих является важным вести этически безупречную деятельность в своей собственной сфере бизнеса. Теперь, когда вы знаете о моих намерениях и моей позиции, мы можем начать наше обсуждение этики и практики оптимизации поисковых систем.

№17: ГС

Категория: Wiki » Г

ГС (аббревиатура слова "говносайт") – это сайт, лишенный информационной и пользовательской ценности и представляющий собой интернетный мусор. Удельная масса ГС в общем объеме довольно велика. ГС – говносайты – обычно характеризуются довольно короткой жизнью и тенденцией к возрождению в удвоенном количестве. Как правило, говносайты размещаются на бесплатных хостингах. Внешний вид ГС примитивен с точки зрения дизайна, методы программирования не представляют собой ценности, а главное меню и карта сайта совпадают.

Одним из признаков ГС является неуникальный контент, полученный чаще всего копированием материала с другого сайта. При этом владельцам ГС удается с помощью разных недобросовестных методов представить его уникальным для поисковых машин. Например, смешать буквы латинского и кириллического алфавита, переставить абзацы местами. Иногда авторы занимаются синонимизацией текста, однако это уже можно назвать “работой” – по сравнению с воровством контента. Еще один способ – это перевод с помощью онлайновых переводчиков страниц из иностранного Интернета и заполнение ими страниц без всякого редактирования. Такой невнятный, бессмысленный контент – первый признак самого злостного из говносайтов.

ГС как метод черной оптимизации

ГС, то есть говносайт – один из самых популярных методов черной оптимизации, характерный, прежде всего, отсутствием профессионализма его создателя и желанием легкой добычи денег. Появление говнойсайтов связано с тем, что Интернет представляет собой колоссальную коммерческую сферу с широкими возможностями заработка. Эта сфера очень гибкая, постоянно меняющаяся, в связи с тем, что она находится практически в начале своего развития. В этой сфере нет застывших форм, застывших алгоритмов, застывших правил. Однако уже твердо известно, что возможность заработать есть и можно воспользоваться как раз этой гибкостью, постоянными изменениями, не вкладывая в бизнес капитала, а также профессиональных знаний, усилий и времени. На этом фоне появляется говносайт как инструмент легкого заработка или инструмент попытки заработка. В любом случае, говносайт также является определенным вложением труда, но труда непрофессионального и бессмысленного.

Тематика ГС

Сверхзадача говносайта – получить индексацию поисковой системы для того, чтобы стать площадкой для размещения ссылок. Продажа ссылочной массы – основной предполагаемый доход. Тематика говносайтов – это тема отдельного разговора. Многие считают, что тематика ГС выбирается абсолютно бестолково. На самом деле этим страдает примерно треть ГС. Помимо этого есть две примерно равные тенденции: ГС на очень востребованные тематики, например, заработок денег в интернете или светские сплетни и ГС с очень редкими, непродвинутыми темами. Сайт с такой тематикой вполне мог бы оказаться востребованным, поскольку любая информация имеет свой спрос, но этому мешает низкое качество контента. Проблема поисковых систем в том, что они не сразу могут распознать говносайт в массе индексируемых сайтов, однако система фильтров и алгоритмов меняется, чтобы была возможность отсеивать ГС.

Категория: Wiki » Б

Бэклинк – обратная или возвратная ссылка. В качестве бэклинка ссылку можно рассматривать только по отношению к какому-либо определённому сайту, обозначим его литером А. Будучи размещённой на стороннем ресурсе, пусть это будет сайт Б, ссылка и получает статус бэклинка. Обратные ссылки являются мощными, а подчас и единственными средствами эффективной оптимизации сайта.

Бэклинки в SEO

В поисковом продвижении бэклинки используются двояко. Поисковик присваивает сайту рейтинг в зависимости от двух параметров, связанных с бэклинками. Первый параметр – количество обратных ссылок на сайт. Чем больше бэклинков оптимизатор размещает на сторонних ресурсах, тем выше позиции продвигаемого сайта в поисковой выдаче. Однако подводным камнем в этом является тематичная родственность сайтов А и Б. Если оптимизатор, продвигая ресурс космической тематики, размещает свои бэклинки на сайте, тематикой которого являются мягкие игрушки, то модератор поисковой системы может отнести такое продвижение к одному из чёрных способов оптимизации – ссылочному спаму. Продвигаемый ресурс может быть наказан вплоть до исключения из базы данных поисковой машины. Словом, требуется размещение бэклинков на сайтах схожих тематик. Либо оптимизатору необходимо проявить определённую изворотливость и органично связать полёты человека на Луну и нюансы производства плюшевых медвежат.

Другим параметром является так называемый вес бэклинка. До этого рассматривалось два сайта – А и Б. Присовокупим к ним третий – сайт В. Понятие «вес бэклинка» как раз и возникает, когда в поле зрения появляется третий сайт, на котором размещаются бэклинки. Предположим, рейтинг сайта Б в поисковой системе, условно говоря, 50 единиц, а рейтинг сайта В – 100. В этом случае бэклинк, размещённый на сайте В, обладает большим весом, что и учитывается поисковой машиной, когда присваивается рейтинг продвигаемому этим бэклинком сайту А. Проще говоря, больший вес обратной ссылки почти автоматически означает более высокие позиции сайта А в поисковой выдаче. Ключевое слово – почти. Потому что, каким бы громадным весом обратные ссылки ни обладали, как бы ни было огромно их количество, сайт никогда не выйдет в верхние строки выдачи, если он сделан не для людей. Ибо последняя инстанция – модератор, – человек, а не робот.

Бэклинки в оптимизации SMO и SMM

Обратная ссылка, продвигающая сайты в интернет-сообществах, может быть более эффективным средством оптимизации, чем в SEO. Ведь в этом случае бэклинк приводит на сайт целевую аудиторию непосредственно, минуя роботов с их умными алгоритмами. Тематичность размещения бэклинков важна здесь необычайно. На форумах и в сообществах ведь так же, как и в поисковых машинах, работают службы модерации, безжалостно удаляя бэклинки, не совпадающие с темой форумов. Попробуйте, например, на форуме Searchengines разместить ссылку, нарушающую правила. Модератор с дивным именем Львович не только удалит этот бэклинк, но и сделает строгое внушение!

В продвижении сайта в человеческих группах количество бэклинков имеет прямое значение. Больше обратных ссылок видит большее количество людей. Понятие веса бэклинка в этом виде продвижения тоже можно рассмотреть. Это просто напросто репутация того участника, который размещает бэклинк. При спамном размещении бэклинков участники форума постепенно начинают третировать оптимизатора, а при худших сценариях и вовсе исключают его из сообщества. Ведь оптимизатор таковым является только для владельца продвигаемого сайта, а в сообществе он такой же участник, с теми же правами. Люди очень не любят, когда им навязываю что-либо. Поэтому, продвигая ресурс размещением бэклинков на форумах, необходимо стать частью сообщества. Нет, даже не так. Нужно стать интересным сообществу. Результат продвижения сайта в этом случае будет, возможно, даже лучшим, чем при поисковой оптимизации.

Заработок на бэклинках

Итак, понятно, почему оптимизатор заинтересован в размещении бэклинков на сторонних ресурсах. Используя заинтересованность оптимизатора, на размещении обратных ссылок может заработать веб-мастер. Суть взаимоотношений проста. Веб-мастер размещает ссылку оптимизатора на своём сайте и получает за это в твёрдой валюте – в электронной, как правило. В Рунете функционирует, да позволительно будет выразиться, воз и маленькая тележка площадок, на которых оптимизаторы и веб-мастера встречаются и вступают, так сказать, в договорные отношения. Эти площадки чаще всего называются биржами. Среди самых популярных ссылочных биржSape, более известная как Сапа, Xap, Блогун.

Наличие таких ресурсов является несомненным благом для оптимизатора. Разумеется, в том только случае, когда подход к размещению бэклинков взвешенный. Не рекомендуется, как говорится, кидаться очертя голову на возможность размещения сотни своих бэклинков навсегда всего за полтора доллара. Почти гарантирован бан в поисковой системе за ссылочный спам. Подходить к выбору сайта размещения своих бэклинков необходимо весьма ответственно.



В Интернете могут встречаться слова-синонимы: бэк, бэки

Категория: Wiki » А

Алгоритмы поисковых систем (ПС) – это особые математические формулы, по которым поисковые системы решают задачу выдачи сайтов в результаты поиска. Как известно, поисковые машины ищут сайты по определённым ключевым словам либо фразам. Алгоритмы поисковых систем позволяют найти сайты, наиболее точно соответствующие запросу пользователя, отсекая при этом площадки, ненужные пользователю или использующие неразрешённые методы оптимизации. Поисковая машина, руководствуясь алгоритмом, анализирует контент сайта, выясняет наличие в составе контента ключевой фразы, принимает решение о том, насколько сайт соответствует запросу пользователя, и в зависимости от степени соответствия присваивает сайту ту или иную позицию в выдаче – выше или ниже. Для каждой поисковой системы разрабатываются свои алгоритмы. Схемы работы всех алгоритмов поисковых систем построены на схожих принципах. Например, все поисковики обязательно оценивают уникальность контента. Отличаются же алгоритмы поисковых систем некоторыми другими инструментами анализа.

Описание

На первоначальной стадии развития сети Интернет поисковым системам для нахождения необходимой пользователю информации достаточно было анализировать лишь самые основные параметры содержания страниц: наличие заголовков, ключевые фразы, объём текста и т. д. Однако с появлением оптимизации и многочисленных способов спама поисковые системы были вынуждены усложнить свои алгоритмы в целях распознавания и отсеивания сайтов, в отношении которых применялись подобные методы, что превратило их развитие в ответные действия на появление всё новых способов продвижения.

Механизмы поисковых алгоритмов являются засекреченной информацией. Никто, кроме разработчиков поисковых систем, точно не знает, что именно учитывают алгоритмы и на какие факторы они обращают внимание. Вся информация об их работе, появляющаяся в сети Интернет, в большинстве случаев представляет собой личные выводы оптимизаторов, основанные на практических наблюдениях за продвигаемыми сайтами.

Так, некоторые системы при выдаче сайтов в поисковых результатах способны анализировать информацию не только о частоте ключевых слов, но и о наиболее популярных страницах и затрачиваемом пользователем времени на их просмотр. Чем оно больше, тем выше вероятность того, что на сайте размещена действительно качественная информация. Другой подход подразумевает определение количества ссылок и вычисление авторитетного веса площадки. Это такие показатели, как ТИЦ, PR и другие, механизм определения которых также является ещё одним алгоритмом работы поисковых систем. Количество параметров, учитываемых поисковыми алгоритмами, может достигать нескольких сотен. К примеру, система «Google» при ранжировании сайтов обращает внимание на более чем 200 факторов.

Алгоритмы поисковой системы Google

История алгоритмов поисковой системы Google началась с введения в поисковый механизм индекса цитирования, заключающегося в ранжировании страниц и сайтов в зависимости от количества и авторитетного веса ссылок (PageRank), ведущих на них с других ресурсов. Таким образом сеть Интернет превратилась в подобие коллективного разума, который и определял релевантность сайтов. Подобная концепция оказалось удачным нововведением, благодаря которому Google и стала наиболее популярной системой.

На ранних этапах алгоритмы Google уделяли внимание лишь внутренним атрибутам страницы. Позже стали учитываться такие факторы, как свежесть информации и географическая принадлежность. В 2000 г. начал использоваться алгоритм Hilltop, предложенный Кришной Бхаратом, для более точного расчёта PageRank. В 2001 г. первоначальный механизм действия системы был полностью переписан. С этого момента Google стала разделять коммерческие и некоммерческие страницы. В этом же году был введён коэффициент, который добавлял ссылкам, ведущим с авторитетных сайтов, больший вес.

Первым по-настоящему сложным барьером для специалистов SEO стал алгоритм «Флорида», введённый Google в 2003 г. Он не только поставил под сомнение целесообразность использования распространённых на тот момент способов продвижения, но и существенно проредил позиции поисковой выдачи, исключив из неё страницы с повторяющимся анкором и переспамленные ключевыми словами.

В 2006 г. система стала использовать разработку израильского студента Ори Алона – алгоритм «Орион», улучшающий поиск благодаря отображению наиболее релевантных результатов и принимающий во внимание качество индексируемых сайтов.

В 2007 г. компания Google внедрила ещё одну систему фильтров и штрафных санкций – алгоритм «Austin». Многие из страниц, занимавших до его введения первые места в рейтинге, понизились на несколько позиций и не поднимались выше шестого места.

В 2009 г. был анонсирован алгоритм «Caffeine», выступивший в качестве ещё одного серьёзного улучшения инфраструктуры «Google». С этого момента система стала не только индексировать больше страниц, но и значительно быстрее производить поиск.

Алгоритмы поисковой системы Яндекса

С лета 2007г. компания Яндекс начала сообщать широкой публике об изменениях в своих механизмах ранжирования. До этого момента они были неизвестны.

В 2008 г. началось тестирование поискового алгоритма «Магадан», который стал учитывать вдвое большее количество факторов, чем предыдущие версии. Также были добавлены такие нововведения, как распознавание аббревиатур и обработка транслита. Кроме того, Яндекс начал индексировать зарубежные сайты, что привело к увеличению конкуренции по запросам, содержащим иностранные слова. Итоговый релиз «Магадана» произошёл 16 мая того же года.

В 2008 г. появился алгоритм «Находка», вызвавший изменения в способе учёта факторов ранжирования. Также было замечено, что по некоторым запросам в поисковой выдаче Яндекса стали появляться информационные сайты, в частности Википедия.

10 апреля 2009 г. заработала поисковая программа «Арзамас». Нововведения, связанные с её появлением, серьёзным образом отразились на продвижении сайтов. Молодым сайтам стало ещё сложнее пробиваться на первые позиции и наращивать ссылочную массу. Однако внедрение географической принадлежности положительно сказалось на региональном продвижении ресурсов.

В 2009 г. поисковая система Яндекс анонсировала новый поисковый алгоритм «Снежинск». Его особенностью стало внедрение новой технологии машинного обучения, названной разработчиками «Матрикснет». Фактически с этого момента продвижение сайтов стало менее подконтрольным оптимизаторам. Яндекс при помощи новой системы связал огромное количество факторов и показателей сайтов, что в итоге сделало ранжирование максимально релевантным оценкам асессоров.

В 2010г. произошли изменения в способе анализа текстового содержания сайтов. Теперь страницы, насыщенные ключевыми словами, стали попадать под фильтры и удаляться из поисковой выдачи. На первый план вышел копирайтинг. В скором времени был анонсирован очередной апдейт системы «Матрикснет», которая раз в месяц осуществляла своё «обучение».

В этом же году, по сообщениям представителей компании, из стадии тестирования вышел новый алгоритм «Обнинск», предназначенный для улучшения ранжирования гео-запросов.

№20: Яндекс

Категория: Wiki » Я
Яндекс – российская поисковая система, предоставляющая российским пользователям удобный инструментарий для поиск и оперирования информацией во всемирной сети Интернет. Являясь полностью отечественной разработкой, Яндекс ориентирован именно на пользовательскую аудиторию на территории России и близлежащих государств. Существует две версии происхождения названия этой поисковой машины. Во-первых, говорят, что «Яндекс» – это «Языковой иНДЕКС». Причиной рождения этой версии является языковая направленность поисковых алгоритмов, активно работающих с морфологией русского языка. Во-вторых, утверждают, что русское слово «Яндекс» произошло от Yandex – сокращения фразы «Yet Another iNDEXer», переводящейся на русский язык как «ещё один индексатор», то есть, поисковик. Какая версия вам нравится больше?

Содержание

Создание Яндекса

Яндекс начинался в то время, когда интернет даже в Америке был ещё диковинной игрушкой, а в России об этом вообще ничего не знали. В далёком уже 1990 году двое предприимчивых, в то время ещё советских, людей основали компанию по производству и продаже разнообразных банков данных. Этими людьми были два Аркадия – господа Волож и Борковский. Самыми удачными созданными ими продуктами были классификаторы, содержащие самые разные сведения – от патентов на изобретения до перечня товаров и услуг. Классификаторы успешно продавались различным заинтересованным учреждениям, к примеру, научно-исследовательским институтам.

Однако тогда уже это были не просто перечни документов, а полноценные базы данных, снабжённые инструментами эффективного поиска данных внутри массива информации. Когда в Россию пришёл Интернет, и в связи с общими тенденциями в развитии «поискового дела» Волож и Борковский решили создать систему поиска информации уже не в небольшом информационном пространстве, а в планетарных масштабах – в сети Интернет. Для создания поисковика они использовали те поисковые алгоритмы, которые были разработаны ими для справочников и классификаторов. Опыт оказался успешным.

Официально рабочая версия поисковой машины Яндекс была представлена в сентябре 1997 года. «Способностями» поисковика на то время были следующие.

1. Определение уникальности страниц с нахождением копий, выполненных в разных системах кодировок. 2. Ориентация на морфологию русского языка, в особенности, на точные словоформы. 3. Оценка релевантности, которая помимо количества слов поискового запроса учитывала относительную частоту слова на странице, удалённость ключевых слов друг от друга, положение слова на странице.

В 2000 году поисковик Яндекс стал коммерческим проектом – была основана компания «Яндекс».

Сервисы Яндекс

Превратив Яндекс в инструмент извлечения коммерческой прибыли, его создатели вынуждены были сделать поисковик максимально привлекательным для пользователей Рунета. С течением времени появились сервисы, которые к поиску относятся весьма отдалённо. Существуют такие популярные службы, как Яндекс.Деньги и Яндекс.Товары. Десятки тысяч людей пользуются бесплатны почтовым сервисом Яндекс.Почта. Очень популярен, опять же бесплатный, хостинг от Яндекс – narod.ru.

Секрет популярности Яндекса помимо прочего заключается в том, что все его сервисы учитывают именно российскую специфику, если так можно сказать, российский менталитет. Даже в подходах к дизайну главной страницы разработчики подходят с этих позиций. Зная, как ревностно относятся пользователи к величине интернет-трафика своих компьютеров, создатели Яндекса разработали в дополнение к основному дизайну минималистичный скин – Ya.ru.

Кроме общеупотребительных сервисов Яндекс предлагает воспользоваться некоторыми узкоспециализированными службами. Эти сервисы предназначены, главным образом, оптимизаторам и веб-мастерамЯндекс.Вордстат, Яндекс.Вебмастер и Яндекс.Директ. Если веб-мастер и оптимизатор пользуются этими удобными службами, то, как правило, индексация сайтов в Яндексе легка и необременительна – «свои» сайты Яндекс любит.

Алгоритмы Яндекса

Однако главным сервисом, так сказать, по рождению, является быстрый и точный поиск информации. В реализации этого предназначения Яндекс, в сущности, недалеко ушёл от своих «коллег», используя, в большинстве случаев те же поисковые механизмы, что и другие поисковые системы. Разница лишь в подходах к организации процесса поиска. Например, разработчики Яндекса ввели такой инструмент, как обратный индекс. Смысл его такой же, как у алфавитного указателя в обычной книге. Читатель просматривает каталог слов, в котором указываются номера страниц, содержащих то или иное слово.

Ровно так же действует и Яндекс, просматривая каталог страниц сайтов, где встречается тот или иной ключевой запрос. Однако такой каталог нужно сначала составить, верно? Составление является процессом внесения в список соответствующих сайтов. Каталог этот в Интернет-терминологии называется индексом. Для того, чтобы попасть в каталог, в индекс Яндекса, сайт должен соответствовать жёстким требованиям Яндекса – быть уникальным, полезным пользователю и «законопослушным». Последнее подразумевает использование только разрешённых методов оптимизации. Каким образом Яндекс ранжирует сайты для составления каталога обратного индекса? Для этого поисковик очень тесно работает со статистикой популярности поисковых запросов.

Даже к такому делу, как название алгоритмов, Яндекс подходит специфически. Алгоритмы именуются не набором сухих цифр и скучных аббревиатур, а названиями российских городов – Магадан, Находка, Арзамас, Снежинск. Последний алгоритм, которым Яндекс руководствуется с декабря прошлого года, называется именем южного российского города – Краснодар.

Особенности продвижения сайта в Яндексе

Для успешного продвижения сайта в Яндексе необходимо обращать внимание на следующие параметры контента сайта.

  • Частота поискового запроса на странице. Яндекс весьма жёстко относится к перенасыщению страниц ключами, воспринимая большое их количество спамом.
  • Размер страницы. Например, количество текстового контента должно быть на странице от двух тысяч знаков. Верхняя планка не ограничена, но скорость обработки страницы существенно снижается, если текст содержит больше 10000 символов.
  • Размещение поискового запроса в заголовке страницы, в так называемом «title», или хотя бы окружение фразы заголовочным тегом «h».
  • Ну и, конечно, количество внешних ссылок на страницу сайта и их вес, то есть, авторитетность сайта размещения.

Все эти параметры определяются поисковым роботом Яндекса автоматически, но Яндекс не был бы Яндексом, если бы вручную не перепроверял сайт перед тем, как присвоить ему рейтинг. Тщательная модерация исключает попадание сайта в индекс Яндекса только по формальному соответствию установленным требованиям.

Отношение к Яндексу в Рунете

Частью российского менталитета является черта, лучше всего передаваемая пословицей «Каждый кулик своё болото хвалит». К поисковой системе Яндекс поговорка эта относится в полной мере. Пользователи Рунета, без преувеличения, обожают Яндекс за его простоту, за его функциональность, за его человечность, наконец. Пусть не всё гладко в поиске с использованием Яндекса, но пользователи многое прощают первому поисковику Рунета, ласково называя его Яшей. Ведь, в конце концов, плохо или хорошо, быстро или медленно, но в Яндексе «Найдётся всё!» в соответствии с главным слоганом компании.

Не так давно господин Касперский был награждён высокой государственной наградой за деятельность в IT-сфере. Может быть, пришла пора наградить орденами и разработчиков Яндекса? Если «Касперский» – большая часть российской действительности, то Яндекс – это сама российская интернет-действительность. Вот уже без малого двадцать лет.

Ссылки



В Интернете могут встречаться слова-синонимы: Яша, Тындекс