SeoNews.com.ua - SEO & Search Engine News
Поисковая оптимизация
Популяризация токенов способна значительно повысить уровень безопасности в сфере электронной коммерции
Эксперты предлагают заменить передаваемые на торговые серверы финансовые данные электронными идентификаторами, не имеющими ценности для злоумышленников.

Как сообщает издание Network World со ссылкой на доклад одного из крупнейших производителей токенов безопасности, широкомасштабное внедрение такой меры, как дополнительные этапы идентификации, способно в значительной степени сократить количество успешных хакерских атак в сфере электронной коммерции.


Персональные данные граждан РФ будут храниться на российских серверах
Депутаты предлагают изменить дату вступления в силу закона «О персональных данных», согласно которому соцсети и сервисы электронной почты будут обязаны хранить личную информацию пользователей на российских серверах.

Как сообщает издание "Известия", депутаты Госдумы РФ выступили с предложением внести некоторые коррективы в закон «О персональных данных», согласно которому социальные сети и сервисы электронной почты будут обязаны сохранять информацию о конфиденциальных данных граждан РФ на серверах, которые располагаются на территории России. Указ был подписан В. Путиным в июле текущего года, и вступает в действие 1 сентября 2016 года. Тем не менее, госчиновники предлагают ускорить процесс и узаконить перенос личной информации пользователей уже с 1 января следующего года.

Пользователям Wi-Fi в московском метро скоро придется регистрироваться
По просьбе руководства столичного метрополитена компания «Максима Телеком» разработала программное обеспечение, посредством которого будет происходить аутентификация пользователей.

В скором времени все желающие воспользоваться услугами Wi-Fi в Московской подземке смогут сделать это только по регистрации. По просьбе администрации метро компания «Максима Телеком» разработала ПО для аутентификации пассажиров. Новая система будет распознавать посетителей подземки по IMEI-номерам их девайсов, пишут «Известия».

Зарубежным компаниям могут ограничить доступ к российским гостайнам
По предварительным данным, лишиться соответствующей лицензии могут четыре крупнейших аудитора - Deloitte, EY, KPMG и PwC.

Как сообщает издание «Ведомости» со ссылкой на собственных информаторов в двух компаниях из четверки крупнейших зарубежных аудиторов в РФ, отечественные силовые структуры усилили давление на компании и в перспективе могут лишить их возможности работать с данными, представляющими собой государственную тайну.
Началась последняя неделя льготной регистрации на конференцию CEE-SECR «Разработка ПО»
На конференции рассмотрят все аспекты разработки программного обеспечения.

Стартовала последняя неделя льготных летних цен на конференцию CEE-SECR «Разработка ПО» — одно из важнейших событий ИТ-индустрии в России.

До 31 августа регистрационный взнос будет ниже финальной цены на более чем 37%. Кроме того, продолжают действовать специальные предложения для студентов, аспирантов и групп от трех человек. Все скидки суммируются


Seo News
Facebook готовит исправление уязвимости, заставляющей iPhone совершать звонки
Разработчики социальной сети намерены устранить брешь в ближайшем обновлении мобильного приложения для iOS.

Как сообщают представители социальной сети

Facebook, разработчики компании намерены в ближайшее время выпустить обновление безопасности для своего мобильного приложения для iOS-устройств. Речь идет об опасной уязвимости, эксплуатация которой позволяет злоумышленникам удаленно совершать звонки со смартфонов iPhone, принадлежащих жертвам атаки. Для этого достаточно вынудить пользователя перейти по специально сформированной вредоносной ссылке.
95% электронных уведомлений от Facebook успешно шифруются

В Facebook отметили рост количества провайдеров, развертывающих шифрование с помощью STARTTLS.

95% посылаемых Facebook по электронной почте уведомлений, являются зашифрованными. Электронные письма шифруются с помощью свойства протоколов под названием «Совершенная прямая секретность» (Perfect Forward Secrecy, PFS) и строгой проверки подлинности сертификата. Об этом сообщил инженер Facebook Майкл Эдкинс (Michael Adkins), занимающийся вопросами неприкосновенности сообщений пользователей.

Microsoft представит Windows 9 в конце сентября

В ранней версии Windows 9 будет добавлено переработанное меню "Пуск" и, возможно, голосовой помощник Cortana.

В компании Microsoft планируют представить следующую версию ОС Windows во время специального события для прессы, которое состоится в конце сентября. Как сообщает издание The Verge, ссылаясь на собственные источники, в настоящее время представители корпорации собираются рассказать об изменениях в новой версии Windows, получившей кодовое наименование «Threshold» («Предел»), 30 сентября этого года. Напомним, что следующая версия Windows в настоящее время находится в разработке, и в Microsoft планируют выпустить предварительную версию ОС для разработчиков (Developer Preview) 30 сентября или позже.

Google AdWords забанит пейнтбольное и прочее оружие
Менее чем через месяц Google запретит рекламу оружия для страйкбола и пейнтбола, пневматических пистолетов, боеприпасов, обойм и портупей. Жалобы на такую рекламу ранее поступали в Google AdWords Help.

Google опубликовал предварительную версию изменения политики, которая в настоящее время позволяет рекламировать такие товары на AdWords.

Вот образец письма, отправленного рекламодателям AdWords:

«Уважаемый рекламодатель AdWords,

Мы извещаем вас об изменении правил размещения рекламы Google, которые могут повлиять на ваш аккаунт AdWords.


Уязвимость в Windows продолжает создавать опасность для пользователей
Наиболее часто уязвимость CVE-2010-2568 эксплуатировали на ОС Windows XP.

Согласно документу, опубликованному Лабораторией Касперского, злоумышленники продолжают эксплуатировать уязвимость CVE-2010-2568 , несмотря на “возраст” бреши. Недавно Лаборатория Касперского обнаружила десятки миллионов эксплоитов, направленных на устранение ошибки в период с ноября 2013 по июнь 2014 года, которые не устранили ее. Жертвами кибератаки стали 19 миллионов пользователей по всему миру.

Search Engine News
Подпишись на рассылку и будь всегда в курсе наших новостей.

Аффилиат (от английского affiliate – филиал, отделение) – это ресурс, не предоставляющий пользователям каких-либо новых сведений по отношению к другому источнику сходной тематики. Если несколько сайтов, присутствующих в поисковых результатах, являются собственностью одного владельца и предоставляют идентичную информацию, но не являются зеркалами, поисковые системы применяют к ним специальные фильтры и отсеивают подобные ресурсы, выделяя из них главный. При этом остальные сайты считаются аффилированными и не показываются в выдаче результатов по одним и тем же запросам.

Описание

Выделение сайтов-аффилиатов с целью ограничения их присутствия в выдачах стало ответным действием поисковых алгоритмов на стремление оптимизаторов и веб-мастеров расширить присутствие своих страниц в поисковых результатах путем создания группы площадок, дублирующих направленность основного сайта с целью увеличения поискового трафика и большего охвата целевой аудитории. Чаще всего под подобные санкции попадают интернет-магазины, имеющие отношение к одной и той же организации.

Для распознавания сайтов поисковые алгоритмы анализируют следующие факторы, при совпадении которых они могут считаться аффилиатами:

  • данные регистратора;
  • вид хостинга;
  • информацию о владельцах;
  • адреса и названия организаций;
  • тематическую направленность;
  • время регистрации доменов;
  • ссылочную массу;
  • IP-адреса и многое другое.

Поисковые системы негативно относятся к аффилиатам. В частности, Google понижает ранжирование подобных сайтов, а я Яндекс при выявлении группы удаляет её из поиска, показывая лишь главный ресурс.

История происхождения

Понятие аффилиатов появилось в 2007 г. и первоначально относилось к площадкам, участвующим в системе контекстной рекламы Google AdSense. Позже данное понятие распространилось и на саму поисковую систему.

Как считают представители Google, аффилиаты не представляют какой-либо ценности для пользователей, особенно если они являются частью программ, распространяющих их содержание среди сотен других ресурсов, что приводит к показу в поисковых результатах сразу нескольких сайтов с идентичным содержанием.

Примерно в это же время фильтры по выявлению аффилиатов стали использоваться и системой Яндекс, из-за чего компании, которые были представлены в поисковых выдачах сразу несколькими сайтами, оптимизированными по релевантным поисковым запросам, потеряли часть поискового трафика.

На сегодняшний момент такие алгоритмы используются не только поисковой системой Яндекс, но и сервисами: Яндекс.Маркет и Яндекс.Директ.

Другое обозначение

В некоторых случаях под аффилиатом может также подразумеваться определённый вид партнёров интернет-магазинов или сайтов, оказывающих какие-либо платные услуги. По роду деятельности аффилиаты не занимаются продажей товаров, а лишь располагают на собственных площадках партнёрские ссылки сторонних ресурсов. В случае перехода по ним и приобретения товара пользователями партнёру начисляется определённый процент от осуществлённых продаж.

Акцептор – это принимающий объект или субъект. Термин произошёл от латинского accipio, которое имеет значение “принимать”. Слово "акцептор" распространено во многих языках и является термином во многих областях. В области SEO акцептором называется сайт, страница, документ, на которую ведет ссылка. Сайт, размещающий ссылку, соответственно, называется донором. То есть, в этом случае мы наблюдаем так называемый донорно-акцепторный механизм, который узнаем по примерам из химии. Как ни странно, в отношениях сайтов действует тот же закон. Хотя понять, как действует механизм, сразу не удается. Тут, как часто бывает, есть внешняя сторона и сторона, скрытая от глаз непосвященных.

Механизм связи “акцептор-донор”

Внешняя сторона выглядит так: сайт, на нем расположена ссылка (SEO-оптимизаторы предпочитают ссылки с анкором). Это сайт-донор. Нажав на ссылку, пользователь попадает на сайт-акцептор. Казалось бы, все просто. Но почему же приняты такие странные названия: донор, акцептор? Дело в том, что, если страница сайта обладает определенным весом, то посредством ссылки, которая на ней расположена, она передает часть своего веса той странице, на которую ведет ссылка, то есть донирует свой вес. Собственный вес страницы при этом не уменьшается. Акцептор, принимая чужой вес, становится “тяжелее” и также может передавать его дальше (дальше, а не обратно, это важно!) То есть акцептор, в свою очередь, так же может стать и донором. Значит, сайт может одновременно и донировать, и акцептировать ссылочный вес. Если есть возможность выбрать донора для собственного сайта-акцептора, то важно выбирать сайт с высоким показателем тематического индекса цитируемости, так как качество передачи веса ссылки зависит от этого. Если донор имеет большой ТИЦ, то это поднимет сайт-акцептор при выдаче.

Качество ссылок

Качество донорских ссылок очень важно для акцептора. Поэтому к ним предъявляются определенные требования. Эти ссылки должны выглядеть естественно, иначе поисковая машина, например, Яндекс, заподозрит, что это купленные ссылки, а значит, от них не будет никакой пользы для акцептора. Эти требования касаются позиции ссылки на странице, тематической направленности и числа ссылок на странице сайта-донора:

  • на донорской странице не более двух ссылок
  • донор имеет высокий траст
  • ссылка расположена внутри контента
  • тематика донорский и акцепторской страницы близка

Апдейт (от англ. update – обновление) – термин английского происхождения, часто используемый в сленге SEO-оптимизаторов (иногда в оптимизаторской среде можно встретить сокращение «ап») и буквально означающий «обновление данных». Таким образом, апдейтом можно считать обновление (изменение) определенной страницы на сайте или его внешнего вида.

Применительно к SEO-оптимизации термин «апдейт» означает обновление результатов поиска в поисковой машине. Итогом проведенного апдейта выступает появление обновленных или новых страниц веб-ресурса в индексе поисковой системы. Иначе говоря, обновляется кэш серверов поисковых машин и, как правило, происходит изменение позиций в поисковой выдаче сайтов. Апдейт базы данных поисковых машин непосредственно связан с индексацией сайтов.

Описание

Чтобы лучше понять, что такое апдейт, представим конкретную ситуацию. Предположим, оптимизатор добился того, что его ресурс занимает первую строчку в результатах поиска по запросу «оптимизация». Сайт активно насыщается пользователями, желающими научиться поисковой оптимизации, статистика посещаемости растет очень быстрыми темпами и приносит ресурсу не только популярность, но еще и большие доходы.

Однако затем поисковая система обнаруживает еще несколько десятков веб-сайтов, которые посвящены теме оптимизации. В первую очередь, она выкачивает страницы всех обнаруженных сайтов, потом распределяет их по уровням релевантности (степени соответствия поисковым запросам) и сохраняет. После сохранения, поисковая система продолжает заниматься поиском других сайтов по теме и таким же образом их сохранять.

В определенный момент происходит обновление всех сохраненных сведений о новых сайтах и страницах, они начинают принимать участие в поиске. Данный момент и называют апдейтом. И если раньше ресурс оптимизатора был на первой позиции, то сейчас он может отодвинуться конкурентами на пятую или шестую.

Особенности апдейта в Яндексе и Google

Оптимизатору, продвигающему сайт, прежде всего, приходится работать с алгоритмами поисковых систем Яндекс и Google. Поэтому для того, чтобы избежать падения позиций веб-сайта, необходимо знать, когда происходит апдейт базы данных указанных поисковых систем.

Яндекс характеризуется статической выдачей, другими словами, позиции сайтов в российской поисковой системе обновляются периодически, через некоторый промежуток времени. Как правило, апдейты Яндекса происходят с периодичностью 1-2 раза в неделю. Google может позволить себе динамическую выдачу сайтов, т.е. их позиции могут меняться несколько раз за 1 день.

Виды апдейтов

  • Обновление алгоритма – изменение алгоритма ранжирования сайтов поисковой системой, т.е. формулы, в соответствии с которой выполняется их выдача в поиске. Обновление алгоритма является наиболее важным апдейтом для оптимизаторов, поскольку может повлечь за собой существенное изменение позиций сайта по нужным запросам.
  • Текстовый апдейт – предполагает апдейт страниц с текстовым наполнением, считается наиболее распространенным и частым среди всех остальных.
  • Ссылочный апдейт – апдейт, принимающий во внимание ссылки, которые указывают на данный сайт. Таким образом, если на ресурс ссылаются другие крупные сайты по теме, поисковый робот непременно это учтет.
  • Апдейт ТИЦ и PR – апдейт, предусматривающий обновление показателей тематического индекса цитирования (Яндекс) и Page Rank (Google).
  • Favicon update – апдейт иконок «Favicon», которые отображаются как в результатах поиска поисковой системы, так и в строке поиска в браузере и в его закладках при условии занесения сайта в их список пользователем.
  • Апдейт зеркальщика – апдейт склейки доменов. Под склейкой доменов понимается процесс, предполагающий исключение из базы поисковой системы идентичных сайтов, т.е. в базе остается только один основной сайт, а его «зеркала» не отображаются в выдаче. В случае, когда основной сайт не задан, поисковая система определяет его автоматически.

Апдейты играют двоякую, но вместе с тем, очень важную роль для оптимизатора. С помощью их некоторых видов можно лучше понять, как происходит ранжирование и тем самым продвинуть сайт на первые строчки по нужным запросам. С другой стороны, остальные апдейты могут только мешать продвижению. В большинстве случаев к последним относят изменение алгоритмов поисковых систем, когда ресурс опускается вниз сразу на несколько позиций и оптимизатору приходится снова производить анализ ТОПа и осуществлять изменения.



В Интернете могут встречаться слова-синонимы: ап, up

АГС – один из фильтров поисковой системы Яндекс, который осуществляет анализ сайтов на их качество, интересность и полезность для аудитории и в зависимости от указанных параметров принимает решение об их индексации. В настоящее время действует два вида фильтров АГС: АГС-17 и АГС-30. Действие АГС-17 направлено на исключение из индекса страниц тех сайтов, которые удовлетворяют хотя бы одному из следующих условий: не соответствуют поисковой лицензии Яндекса, не интересны пользователям, содержат поисковый СПАМ или дублированный контент. Фильтр АГС-30 является усовершенствованной версией АГС-17 и функционирует на основе примерно тех же показателей.

Аудит сайта – это скрупулезная дотошная проверка сайта независимыми экспертами. В сферу SEO термин пришел из финансово-банковских отношений, где аудиторские проверки являются обязательным элементом и имеют разные направления. Точно также аудиторский анализ сайта осуществляется по разным направлениям. Провести грамотный аудит сайта может специалист, который в состоянии не только оценить состояние дел, но и выявить ошибки, подсказать пути их исправления. Аудит сайта очень важен на начальном этапе его продвижения и необходим – хотя бы частично – на дальнейших этапах его развития. Аудит необходим для выявления ошибок и сильных сторон, выработки стратегии и тактики.

Полный комплексный аудит сайта и его направления

Полный комплексный аудит сайта включает в себя одновременно несколько направлений анализа.

  • Технический аудит касается соответствия стандарту вебстраниц, грамотности кодов, проверяет качество и скорость загрузки. Он также оценивает выбор хостинга, структуру сайта. Технический анализ сравнивает, как выглядит сайт в различных браузерах. Безопасность сайта, robots.txt, программная часть, доступ к управлению сайтом – все это задачи технического аудита.
  • Маркетинговый аудит сайта оценивает его как инструмент рыночных отношений. Сервисы и статистика сайта, эффективность контекстной рекламы, наличие и сила конкурентов, конкурентоспособность и тематическое соответствие – вот основные пункты маркетингового анализа. Отдельно нужно обозначить подробные аудиты сайтов-конкурентов и сайтов партнеров для более грамотного планирования дальнейшей политики веб-ресурса.
  • Аудит и анализ юзабилити, то есть полезности и удобства пользования сайтом – еще один важный этап. Это дает возможность создать пользователю на сайте самые благоприятные условия и увеличить посещаемость. Известны примеры, когда из двух приблизительно одинаковых сайтов, один поднимался исключительно за счет хорошо продуманной структуры, удобного интерфейса и красивого дизайна.
  • Поисковый аудит сайта, называемый также SEO-аудитом, расскажет все об отношении сайта и поисковых систем. Он должен проанализировать состояние сайта с точки зрения поисковых систем. Этот анализ затрагивает мета-теги, ключевые слова, карту сайта, качество контента. Что касается ключевых слов и семантического ядра – многие сайты не имеют должного успеха только потому, что неправильно определяют семантическое ядро и некорректно формулируют ключевые запросы. Сюда же входит оценка ссылочного контента, внутренняя перелинковка, другие элементы, на которые распространяется SEO-оптимизация.

Профессиональный аудит сайта нужен время от времени как медосмотр любому человеку: это выявление преимуществ и недостатков, что позволит четко продвигать сайт, по ходу ликвидируя ошибки.

Алиас – это доменный синоним, использующийся для присвоения двух или более доменных имён одному и тому же сайту. К примеру, адрес ресурса site.ru может выступать в качестве основного домена, а www.site.ru являться его алиасом. При изменении информации на сайте её обновление происходит по всем алиасам.

Описание

Применение алиасов позволяет не только присвоить сайту дополнительное имя, но и зарегистрировать его сразу в нескольких доменных зонах: site.ru, site.info, site.com и т. д. К этому способу также прибегают в случаях, когда название сайта может писаться с ошибками:

  • site.ru;
  • sute.ru;
  • sate.ru.

Чаще всего созданием алиасов занимаются крупные компании, адреса сайтов которых довольно известны широкой публике и могут быть написаны в различных вариантах. При этом какой бы из адресов пользователь ни набрал в адресной строке, он попадёт на один и тот же веб-ресурс.

В последнее время некоторую популярность у веб-мастеров получила возможность присвоения сайтам имён в кириллической форме, что позволяет пользователям набирать адреса в русскоязычной форме и попадать на нужные ресурсы.

Услуги по созданию алиасов, как правило, предоставляют хостинг-провайдеры.

Алгоритмы поисковых систем (ПС) – это особые математические формулы, по которым поисковые системы решают задачу выдачи сайтов в результаты поиска. Как известно, поисковые машины ищут сайты по определённым ключевым словам либо фразам. Алгоритмы поисковых систем позволяют найти сайты, наиболее точно соответствующие запросу пользователя, отсекая при этом площадки, ненужные пользователю или использующие неразрешённые методы оптимизации. Поисковая машина, руководствуясь алгоритмом, анализирует контент сайта, выясняет наличие в составе контента ключевой фразы, принимает решение о том, насколько сайт соответствует запросу пользователя, и в зависимости от степени соответствия присваивает сайту ту или иную позицию в выдаче – выше или ниже. Для каждой поисковой системы разрабатываются свои алгоритмы. Схемы работы всех алгоритмов поисковых систем построены на схожих принципах. Например, все поисковики обязательно оценивают уникальность контента. Отличаются же алгоритмы поисковых систем некоторыми другими инструментами анализа.

Описание

На первоначальной стадии развития сети Интернет поисковым системам для нахождения необходимой пользователю информации достаточно было анализировать лишь самые основные параметры содержания страниц: наличие заголовков, ключевые фразы, объём текста и т. д. Однако с появлением оптимизации и многочисленных способов спама поисковые системы были вынуждены усложнить свои алгоритмы в целях распознавания и отсеивания сайтов, в отношении которых применялись подобные методы, что превратило их развитие в ответные действия на появление всё новых способов продвижения.

Механизмы поисковых алгоритмов являются засекреченной информацией. Никто, кроме разработчиков поисковых систем, точно не знает, что именно учитывают алгоритмы и на какие факторы они обращают внимание. Вся информация об их работе, появляющаяся в сети Интернет, в большинстве случаев представляет собой личные выводы оптимизаторов, основанные на практических наблюдениях за продвигаемыми сайтами.

Так, некоторые системы при выдаче сайтов в поисковых результатах способны анализировать информацию не только о частоте ключевых слов, но и о наиболее популярных страницах и затрачиваемом пользователем времени на их просмотр. Чем оно больше, тем выше вероятность того, что на сайте размещена действительно качественная информация. Другой подход подразумевает определение количества ссылок и вычисление авторитетного веса площадки. Это такие показатели, как ТИЦ, PR и другие, механизм определения которых также является ещё одним алгоритмом работы поисковых систем. Количество параметров, учитываемых поисковыми алгоритмами, может достигать нескольких сотен. К примеру, система «Google» при ранжировании сайтов обращает внимание на более чем 200 факторов.

Алгоритмы поисковой системы Google

История алгоритмов поисковой системы Google началась с введения в поисковый механизм индекса цитирования, заключающегося в ранжировании страниц и сайтов в зависимости от количества и авторитетного веса ссылок (PageRank), ведущих на них с других ресурсов. Таким образом сеть Интернет превратилась в подобие коллективного разума, который и определял релевантность сайтов. Подобная концепция оказалось удачным нововведением, благодаря которому Google и стала наиболее популярной системой.

На ранних этапах алгоритмы Google уделяли внимание лишь внутренним атрибутам страницы. Позже стали учитываться такие факторы, как свежесть информации и географическая принадлежность. В 2000 г. начал использоваться алгоритм Hilltop, предложенный Кришной Бхаратом, для более точного расчёта PageRank. В 2001 г. первоначальный механизм действия системы был полностью переписан. С этого момента Google стала разделять коммерческие и некоммерческие страницы. В этом же году был введён коэффициент, который добавлял ссылкам, ведущим с авторитетных сайтов, больший вес.

Первым по-настоящему сложным барьером для специалистов SEO стал алгоритм «Флорида», введённый Google в 2003 г. Он не только поставил под сомнение целесообразность использования распространённых на тот момент способов продвижения, но и существенно проредил позиции поисковой выдачи, исключив из неё страницы с повторяющимся анкором и переспамленные ключевыми словами.

В 2006 г. система стала использовать разработку израильского студента Ори Алона – алгоритм «Орион», улучшающий поиск благодаря отображению наиболее релевантных результатов и принимающий во внимание качество индексируемых сайтов.

В 2007 г. компания Google внедрила ещё одну систему фильтров и штрафных санкций – алгоритм «Austin». Многие из страниц, занимавших до его введения первые места в рейтинге, понизились на несколько позиций и не поднимались выше шестого места.

В 2009 г. был анонсирован алгоритм «Caffeine», выступивший в качестве ещё одного серьёзного улучшения инфраструктуры «Google». С этого момента система стала не только индексировать больше страниц, но и значительно быстрее производить поиск.

Алгоритмы поисковой системы Яндекса

С лета 2007г. компания Яндекс начала сообщать широкой публике об изменениях в своих механизмах ранжирования. До этого момента они были неизвестны.

В 2008 г. началось тестирование поискового алгоритма «Магадан», который стал учитывать вдвое большее количество факторов, чем предыдущие версии. Также были добавлены такие нововведения, как распознавание аббревиатур и обработка транслита. Кроме того, Яндекс начал индексировать зарубежные сайты, что привело к увеличению конкуренции по запросам, содержащим иностранные слова. Итоговый релиз «Магадана» произошёл 16 мая того же года.

В 2008 г. появился алгоритм «Находка», вызвавший изменения в способе учёта факторов ранжирования. Также было замечено, что по некоторым запросам в поисковой выдаче Яндекса стали появляться информационные сайты, в частности Википедия.

10 апреля 2009 г. заработала поисковая программа «Арзамас». Нововведения, связанные с её появлением, серьёзным образом отразились на продвижении сайтов. Молодым сайтам стало ещё сложнее пробиваться на первые позиции и наращивать ссылочную массу. Однако внедрение географической принадлежности положительно сказалось на региональном продвижении ресурсов.

В 2009 г. поисковая система Яндекс анонсировала новый поисковый алгоритм «Снежинск». Его особенностью стало внедрение новой технологии машинного обучения, названной разработчиками «Матрикснет». Фактически с этого момента продвижение сайтов стало менее подконтрольным оптимизаторам. Яндекс при помощи новой системы связал огромное количество факторов и показателей сайтов, что в итоге сделало ранжирование максимально релевантным оценкам асессоров.

В 2010г. произошли изменения в способе анализа текстового содержания сайтов. Теперь страницы, насыщенные ключевыми словами, стали попадать под фильтры и удаляться из поисковой выдачи. На первый план вышел копирайтинг. В скором времени был анонсирован очередной апдейт системы «Матрикснет», которая раз в месяц осуществляла своё «обучение».

В этом же году, по сообщениям представителей компании, из стадии тестирования вышел новый алгоритм «Обнинск», предназначенный для улучшения ранжирования гео-запросов.

Aльт теги – текстовое описание содержимого графического объекта. Применяется для повышения удобства при навигации по сайту. Так как некоторые пользователи отключают показ графики, альт-текст, отображающийся вместо картинок, позволяет им узнать о предназначении объекта или его содержимом. Данная информация также выводится при наведении курсора на графические элементы.

На сегодняшний момент мнения о необходимости прописывания альт тегов разделились. Согласно одним доводам, это позволяет увеличить уровень ранжирования картинок и повлиять на позиции страниц в поисковых выдачах. Оппозиционеры же утверждают, что альт теги вообще не влияют на эти параметры и их применение заключается лишь в описании графических объектов.

Как бы там ни было, многие поисковые системы индексируют подобное содержимое, что позволяет использовать для продвижения веб-страниц дополнительные методы оптимизации в виде прописывания в тегах ключевых слов, относимых к семантическому ядру сайта.

Авторитетность – характеристика страницы сайта, совокупно определяющая рейтинг страницы в поисковой выдаче. Несмотря на сходство с общеупотребительным гражданским понятием, которое может означать, например, уважение или поклонение, авторитетность в поисковой оптимизации – это величина, математически точно рассчитываемая алгоритмами поисковых систем в отношении целых сайтов или отдельных страниц.

Расчёт авторитетности

Авторитетность страницы сайта рассчитывается по нескольким показателям, которые учитываются поисковой машиной комплексно. Во-первых, в расчёт авторитетности принимаются количество и, что немаловажно, качество внешних ссылок, ведущих на продвигаемый сайт. Что такое количество, объяснять, видимо, не стоит. Качество же внешних ссылок определяется весом. Одна ссылка, ведущая на сайт с авторитетного, посещаемого ресурса, для поисковой машины более весома, чем десяток линков, размещённых на никому неизвестной линкопомойке. И, во-вторых, авторитетность напрямую связывается с содержанием сайта и соответствием контента поисковым запросам пользователей, по которым продвигается сайт.

Оценка авторитетности носит комплексный характер и является сложной зависимостью от различных факторов страницы, как внешних, так и внутренних, как запросозависимых, так и нет. Поэтому авторитетность является самой неоднозначно трактуемой характеристикой сайта. Иногда авторитетность называют степенью доверия поисковой машины к тому или иному сайту. В любом случае, на ранжирование сайта авторитетность оказывает непосредственное влияние. Высокая авторитетность – высокие позиции в выдаче.

Увеличение авторитетности

Из-за сложной природы авторитетности, зависящей от сложной комбинации факторов различного характера, повышение этого параметра сайта исключает применение только автоматических методов. Необходима планомерная и масштабная работа по поддержанию информации, размещённой на сайте, в актуальном состоянии. Хорошие результаты приносит взаимодействие с администрациями авторитетных ресурсов, с разрешения которых можно разместить внешние ссылки на продвигаемый сайт. Кроме того, необходима постоянная поддержка сайта с технической точки зрения, тесно работая с хостингом, а при необходимости наращивая мощности. Однако самым главным инструментом повышения авторитетности является создание атмосферы на сайте, которая ориентирована на людей, учитывающая интересы пользователей и их предпочтения.

Аддурилка – это сленговый термин, обозначающий специальный сервис, позволяющий добавить один или несколько сайтов на индексацию поисковой системой Яндекс. Термин происходит от английского Add (добавить) и аббревиатуры URL (Uniform Resource Locator – единый указатель ресурсов в Интернете), обозначающей стандартизированное написание адреса сайта. Добавление сайта посредством аддурилки осуществляется в полуавтоматическом режиме через специальную форму. Скорость добавления в аддурилке занимает приблизительно от 3-х до 5 секунд на один URL, что значительно быстрее, чем при применении оригинального сервиса регистрации в Яндексе.