SeoNews.com.ua - SEO & Search Engine News
Поисковая оптимизация
Популяризация токенов способна значительно повысить уровень безопасности в сфере электронной коммерции
Эксперты предлагают заменить передаваемые на торговые серверы финансовые данные электронными идентификаторами, не имеющими ценности для злоумышленников.

Как сообщает издание Network World со ссылкой на доклад одного из крупнейших производителей токенов безопасности, широкомасштабное внедрение такой меры, как дополнительные этапы идентификации, способно в значительной степени сократить количество успешных хакерских атак в сфере электронной коммерции.


Персональные данные граждан РФ будут храниться на российских серверах
Депутаты предлагают изменить дату вступления в силу закона «О персональных данных», согласно которому соцсети и сервисы электронной почты будут обязаны хранить личную информацию пользователей на российских серверах.

Как сообщает издание "Известия", депутаты Госдумы РФ выступили с предложением внести некоторые коррективы в закон «О персональных данных», согласно которому социальные сети и сервисы электронной почты будут обязаны сохранять информацию о конфиденциальных данных граждан РФ на серверах, которые располагаются на территории России. Указ был подписан В. Путиным в июле текущего года, и вступает в действие 1 сентября 2016 года. Тем не менее, госчиновники предлагают ускорить процесс и узаконить перенос личной информации пользователей уже с 1 января следующего года.

Пользователям Wi-Fi в московском метро скоро придется регистрироваться
По просьбе руководства столичного метрополитена компания «Максима Телеком» разработала программное обеспечение, посредством которого будет происходить аутентификация пользователей.

В скором времени все желающие воспользоваться услугами Wi-Fi в Московской подземке смогут сделать это только по регистрации. По просьбе администрации метро компания «Максима Телеком» разработала ПО для аутентификации пассажиров. Новая система будет распознавать посетителей подземки по IMEI-номерам их девайсов, пишут «Известия».

Зарубежным компаниям могут ограничить доступ к российским гостайнам
По предварительным данным, лишиться соответствующей лицензии могут четыре крупнейших аудитора - Deloitte, EY, KPMG и PwC.

Как сообщает издание «Ведомости» со ссылкой на собственных информаторов в двух компаниях из четверки крупнейших зарубежных аудиторов в РФ, отечественные силовые структуры усилили давление на компании и в перспективе могут лишить их возможности работать с данными, представляющими собой государственную тайну.
Началась последняя неделя льготной регистрации на конференцию CEE-SECR «Разработка ПО»
На конференции рассмотрят все аспекты разработки программного обеспечения.

Стартовала последняя неделя льготных летних цен на конференцию CEE-SECR «Разработка ПО» — одно из важнейших событий ИТ-индустрии в России.

До 31 августа регистрационный взнос будет ниже финальной цены на более чем 37%. Кроме того, продолжают действовать специальные предложения для студентов, аспирантов и групп от трех человек. Все скидки суммируются


Seo News
Facebook готовит исправление уязвимости, заставляющей iPhone совершать звонки
Разработчики социальной сети намерены устранить брешь в ближайшем обновлении мобильного приложения для iOS.

Как сообщают представители социальной сети

Facebook, разработчики компании намерены в ближайшее время выпустить обновление безопасности для своего мобильного приложения для iOS-устройств. Речь идет об опасной уязвимости, эксплуатация которой позволяет злоумышленникам удаленно совершать звонки со смартфонов iPhone, принадлежащих жертвам атаки. Для этого достаточно вынудить пользователя перейти по специально сформированной вредоносной ссылке.
95% электронных уведомлений от Facebook успешно шифруются

В Facebook отметили рост количества провайдеров, развертывающих шифрование с помощью STARTTLS.

95% посылаемых Facebook по электронной почте уведомлений, являются зашифрованными. Электронные письма шифруются с помощью свойства протоколов под названием «Совершенная прямая секретность» (Perfect Forward Secrecy, PFS) и строгой проверки подлинности сертификата. Об этом сообщил инженер Facebook Майкл Эдкинс (Michael Adkins), занимающийся вопросами неприкосновенности сообщений пользователей.

Microsoft представит Windows 9 в конце сентября

В ранней версии Windows 9 будет добавлено переработанное меню "Пуск" и, возможно, голосовой помощник Cortana.

В компании Microsoft планируют представить следующую версию ОС Windows во время специального события для прессы, которое состоится в конце сентября. Как сообщает издание The Verge, ссылаясь на собственные источники, в настоящее время представители корпорации собираются рассказать об изменениях в новой версии Windows, получившей кодовое наименование «Threshold» («Предел»), 30 сентября этого года. Напомним, что следующая версия Windows в настоящее время находится в разработке, и в Microsoft планируют выпустить предварительную версию ОС для разработчиков (Developer Preview) 30 сентября или позже.

Google AdWords забанит пейнтбольное и прочее оружие
Менее чем через месяц Google запретит рекламу оружия для страйкбола и пейнтбола, пневматических пистолетов, боеприпасов, обойм и портупей. Жалобы на такую рекламу ранее поступали в Google AdWords Help.

Google опубликовал предварительную версию изменения политики, которая в настоящее время позволяет рекламировать такие товары на AdWords.

Вот образец письма, отправленного рекламодателям AdWords:

«Уважаемый рекламодатель AdWords,

Мы извещаем вас об изменении правил размещения рекламы Google, которые могут повлиять на ваш аккаунт AdWords.


Уязвимость в Windows продолжает создавать опасность для пользователей
Наиболее часто уязвимость CVE-2010-2568 эксплуатировали на ОС Windows XP.

Согласно документу, опубликованному Лабораторией Касперского, злоумышленники продолжают эксплуатировать уязвимость CVE-2010-2568 , несмотря на “возраст” бреши. Недавно Лаборатория Касперского обнаружила десятки миллионов эксплоитов, направленных на устранение ошибки в период с ноября 2013 по июнь 2014 года, которые не устранили ее. Жертвами кибератаки стали 19 миллионов пользователей по всему миру.

Search Engine News
Подпишись на рассылку и будь всегда в курсе наших новостей.

Вес ссылки – показатель её значимости для продвижения сайта. Используется поисковыми системами для назначения сайту более высокого ранга. Более высокий статус поисковик присваивает тому ресурсу, к которому пользователя адресует максимальное количество так называемых внешних ссылок, то есть, ссылок с других сайтов. Однако важно не только количество внешних ссылок, но и их качество. Наглядная иллюстрация для понимания того, что такое вес ссылки. Если на продвигаемый сайт ведёт ссылка, размещённая на никому неизвестном сайте, то вес ссылки один – маленький. А если на сайт ведёт ссылка, скажем, из блога президента, то вес такой ссылки уже другой. Он поисковыми системами воспринимается, как высокий. Следствие – сайт, на который ссылается блог президента, уверенно выходит в топ поисковой системы. Вот что такое для оптимизации вес внешней ссылки.

Рунет – представляет собой совокупность сайтов, реализованных на русском языке. Другими словами, Рунет – это российский Интернет. В большинстве случаев термин применяется для обозначения ресурсов, которые располагаются в доменных зонах .ru или .рф. С точки зрения эффективности продвижения сайтов Рунет – это широкомасштабный рынок, в частности рекламы. На сегодняшний день русскоязычные ресурсы посещают уже более 10 млн. россиян. Поэтому Рунет открывает многообещающие финансовые перспективы сайтам, которые преследуют цели по продаже услуг или товаров в большом ассортименте.

Зеркало (сайта) – точная копия сайта, размещённая в Интернете под другим доменным именем. Зеркала создают главным образом в целях снижения нагрузки на главный сайт. Зеркалируются в основном сайты, которые подвержены волнообразному посещению пользователями, когда появляется риск отказа сайта в силу его перегруженности. Однако целями создания зеркал могут быть и другие. Например, резервирование данных во избежание потерь при возможных сбоях серверного оборудования. Иногда зеркалируют сайты, адрес которых пользователь может написать по-разному. Например, можно написать «telefon», а можно «telephone». Чтобы пользователь в любом случае попал на нужный сайт, создают зеркало.

Описание

Так как зеркала представляют копию сайтов, поисковые системы в целях снижения нагрузок на серверы не индексируют их содержание, выводя в результатах лишь ссылки на основной ресурс. Это также позволяет избежать выдачи идентичных страниц. Алгоритмы, выявляющие такие дубликаты, постоянно меняются, что часто порождает ситуации, когда в качестве главного сайта поисковой системой определяется зеркало, а основной ресурс игнорируется. В свою очередь это негативно сказывается на ссылочных показателях и индексах цитирования.

К примеру, робот системы Яндекс – Yandex/1.01.001 – при обнаружении зеркал выбирает из них только один сайт и присваивает ему статус основного, остальные же из индекса удаляются. Если не управлять этим процессом, система самостоятельно выберет понравившееся ей зеркало, в качестве которого может выступить совсем не тот ресурс, который планировался.

Во избежание данного явления веб-мастера часто запрещают доступ робота к зеркалам при помощи файла robots.txt до индексации главного сайта. Также есть множество способов указать поисковых системам, какой именно сайт должен считаться основным. Для Яндекса это можно сделать, указав в robots.txt директиву Host с именем основного зеркала. К примеру, если главный сайт имеет адрес www.site.ru, то robots.txt будет выглядеть следующим образом:

User-Agent: *

Disallow: /admin/

Host: www.site.ru

Созданием зеркал занимаются не только в целях повышения работоспособности сайта, но и для сохранения накопленных показателей ТИЦ, ВИЦ и PR во время смены доменного имени или в целях обеспечения доступа к заблокированным сведениям. Именно при помощи этого способа в 2002г., когда власти Китая запретили доступ к поисковой системе Google, её ресурсами продолжали пользоваться при помощи зеркала elgooG.

Критерии зеркал

Самым главным критерием зеркала является его идентичность основному сайту. Если же при индексации поисковые системы находят какие-либо отличия в содержимом, такие ресурсы расклеиваются и начинают считаться различными. До появления специальных алгоритмов почти идентичные площадки использовались оптимизаторами для захвата в поисковых выдачах как можно большего количества позиций по одним и тем же ключевым словам. На данный момент поисковые системы способны выявлять копии сайтов, принадлежащие одному и тому же лицу, и классифицировать их в качестве аффилированных с последующим удалением из индекса.

MatrixNet (Матрикснет) – специальный алгоритм машинного обучения, благодаря использованию которого поисковые машины Яндекса стали учитывать гораздо большее количество критериев ранжирования, чем до введения этого алгоритма. Подчеркнём, MatrixNet является детищем российского поисковика Яндекс. Другие поисковые машины пользуются своими решениями.

Из теории поисковых систем

Многие простые пользователи уверены, что каждый раз, как человек обращается с конкретным запросом к поисковой машине, робот просматривает все страницы в Интернете, где размещён этот поисковый запрос. Это, конечно, не так. Если бы дело обстояло таким образом, то всякий раз поиск длился бы не две-три секунды, а двадцать-тридцать минут. В Интернете миллионы страниц и даже беглый осмотр всех занял бы большое количество времени. Поисковый робот при получении поискового запроса обращается не к страницам всемирной паутины, а к особой базе данных, заблаговременно сформированной поисковой системой, – индексу. В нём уже содержатся наиболее соответствующие или, как говорят специалисты, релевантные данному поисковому запросу страницы. Найденные в индексе страницы и показываются пользователю.

Индекс не есть что-то однажды и навсегда сформированное. Эта база данных постоянно обновляется. Поисковые системы регулярно производят обновления своих индексов – так называемые апдейты, которые проводятся незаметно для пользователей. В результате к услугам людей, которые пользуются поиском, всегда «свежий» индекс. И, опять же, мало кто из простых пользователей знает, что важной частью формирования, если позволите, релевантного индекса является обучение поисковой машины.

Первый раз в первый класс

Нет-нет, мы не будем рассматривать «страшной» футурологии, которая лежит в основе фильмов про Терминатора – компьютеры самообучились, сошли с ума и завоевали планету. В рассмотрении функционирования поисковых машин всё более прозаично. Поисковые системы обучаются, но лишь с тем, чтобы повышалось качество поиска. Примерная схема обучения такова. Во всяком случае, такой она является в Яндексе.

Во время апдейта робот находит релевантные на его взгляд страницы. Для того чтобы они оказались таковыми и с человеческой точки зрения, эти страницы проверяются асессором поисковой системы. Если асессор считает страницу релевантной, она помещается в индекс. Чем выше релевантность, тем высший ранг присваивается странице. Однако со шквальным ростом интереса к сайтостроению страниц стало появляться столь много, что не хватит даже целой армии асессоров, чтобы оценить все найденные роботом страницы. Возникла настоятельная необходимость научить машину, хотя бы частично, выполнять функции асессоров, то есть, учитывать критерии ранжирования в динамике. В результате был разработан алгоритм обучения поисковой машины MatrixNet.

Подробнее о MatrixNet

Впервые о MatrixNet заговорили одновременно с введением поискового алгоритма «Снежинск» в 2009 году. Целью разработки MatrixNet было многократное увеличение количества факторов ранжирования и, как следствие, повышение качества поиска. В частности, применением особых математических формул было достигнуто уменьшение количества ошибочных оценок важности тех или иных факторов. Говоря проще, поисковая машина, обученная с помощью MatrixNet, перестала выдавать желаемое за действительное, придавая несущественным поисковым критериям большой вес.

Другим нюансом MatrixNet является возможность настройки ранжирования сайтов под ту или иную категорию поисковых запросов без ухудшения качества поиска по остальным. Формула ранжирования, которую создаёт MatrixNet для обучения поисковой машины, порой содержит десятки тысяч значений различных коэффициентов. Возможность точной настройки процедуры ранжирования позволяет отсеивать, так сказать, нетематические страницы, содержащие тематические запросы. Всё это в конечном итоге ведёт к повышению точности поиска.

С введением алгоритма машинного обучения MatrixNet выдача Яндекса стала более релевантной несмотря на то, что количество просматриваемых страниц выросло в тысячи раз.

Поисковая система (ПС) – это наиболее полная попытка упорядочить и классифицировать самую разнообразную информацию на просторах Интернета. Для пользователя поисковая система выглядит как интерактивный сайт, которому пользователь адресует свой запрос. Сайт реагирует почти мгновенным ответом, в виде серпа, то есть сгенерированной страницы сайта, содержащей в качестве ответа последовательно расположенные ссылки и другие элементы. Но, то, что видно пользователю – “лицо” поисковой системы, сайт, является лишь интеллектуальной надстройкой большого комплекса. Естественно, она имеет материальную базу, выраженную в системе реальных машин, мощных аппаратов, снабженных специально прописанным уникальным программным обеспечением. Несмотря на то, что программы имеют между собой много общего, их индивидуальные особенности не подлежат разглашению. И это обусловливает отличие поисковых систем между собой. Кроме того, поисковая система не является застывшим явлением, она развивается, расширяется, меняет алгоритмы работы.

Структура поисковой системы

Поисковая система обладает поисковыми роботами, постоянно считывающими новую информацию в Интернете, находящими новые сайты, страницы, обновления. Число роботов довольно внушительное, задачи по поиску и сбору информации у них разные. Вся эта информация регистрируется индексатором и составляет собой базу данных поисковой системы, которая также является относительно непостоянной величиной. Это естественно, ведь постоянно добавляются новые веб-страницы, а старые часто приходится вычищать из базы данных. Чтобы получить доступ к необходимой информации, посетитель обращается у веб-серверу поисковика. Она обладает системой выдачи, то есть возможностью мгновенно сортировать имеющиеся данные и выдавать релевантные ответы.

Основные поисковые системы

Поисковых систем существует довольно много, каждая из них наделена своими целями и задачами, часто – коммерческими. Однако, глобальных, мирового значения поисковых систем, пользующихся большим доверием клиентов, не так уж много. По исследованиям текущего года доминирующую позицию в мире занимает система Google, получившая процентное выражение обращений к ней – около 85%. Следующая в этой категории идет более “древняя” Yahoo!, на долю которой приходится менее 7% запросов. Среди русскоязычных поисковых систем безусловным лидером является Яндекс.

Учитывая это, весь комплекс мер по SEO-оптимизации направлен, собственно, на продвижение русскоязычных сайтов именно в этих двух системах – Google и Яндекс. Именно топ-позиции в выдаче этих поисковых систем дают реальное прибавление трафика на сайт. Существенные различия в структуре и алгоритмах поисковых систем обусловливают то, что разные сайты индексируются и ранжируются по-разному в Яндексе и Google.



В Интернете могут встречаться аббревиатуры и слова-синонимы: ПМ, ПС, поисковая машина, поисковик

Постовой – это платная рекламная услуга из разряда коммерческого обмена ссылок. Владелец сайта продает постовой блогеру, а это значит, что на блоге в начале или – чаще – в конце поста будет размещен небольшой текст, в котором обычно присутствует до трех ссылок. Это не скрытая, а явная реклама, постовой обычно отделяется от основного поста “воздухом” или разделителем. Размещая постовые на проверенных авторитетных площадках, сайт наращивает ссылочную массу.

Действенность постовых уменьшается, если поисковые системы идентифицируют рекламу. Ссылки должны оставаться в постовом навсегда (хотя этот вопрос, к сожалению, наталкивается на “человеческий” фактор).

Yazzle – программа для продвижения сайтов в поисковых системах. Yazzle облегчает труд SEO-специалистов по анализу ссылочной массы и текстового наполнения страниц, определяет уровень конкурентоспособности используемых запросов.

На данный момент Yazzle имеет 16 дополнительных инструментов, позволяющих проверять позиции сайтов по запросам, показывать количество проиндексированных страниц, предсказывать значения PR, оценивать статистику посещений, проверять HTTP-заголовки серверов, экспортировать ссылки из системы Sape, проверять их индексацию и многое другое.

Согласно заявлениям создателей, программа Yazzle обладает всеми функциями, необходимыми для работы оптимизаторов и может применяться в таких целях, как:

  • Анализ конкурентности по запросам, включая быстрый анализ TOP в 9 поисковых системах по имеющимся показателям у сайтов-конкурентов.
  • Оценка стоимости денежных затрат на продвижение. Для этого в Yazzle используются статистические данные крупнейших бирж Sape, XAP и MainLink.
  • Определение посещаемости сайта по конкретным запросам.
  • Анализ количества внешних ссылок для прогнозирования будущего параметра PR.
  • Импорт ссылок из сервиса Яндекс.Вебмастер.
  • Определение рентабельности покупки ссылок на определённых страницах.
  • Анализ HTML-кода сайта.
  • Получение списка всех имеющихся обратных ссылок на сайт.
  • Составление семантического ядра.
  • Комплексный аудит ресурса.
  • Создание карт.
  • Определение позиций сайта, а также количества проиндексированных страниц.
  • Работа с DNS-серверами и HTTP-заголовками.
  • Анализ ссылок на отдельно взятой веб-странице.

Первая версия программы Yazzle появилась в сентябре 2008 года. Последующие обновления Yazzle существенно расширили функционал утилиты. На сегодняшний день доступна версия Yazzle 4.8.

Индекс или поисковый индекс - база данных, содержащая информацию о документах, собранную поисковыми роботами. Процесс занесения поисковым роботом информации о появившемся сайте в базу данных называется индексацией. В собираемые сведения главным образом входят ключевые слова, определяемые при помощи соответствующих алгоритмов, различные текстовые документы, статьи и ссылки. В некоторых случаях индексироваться могут и изображения. После обработки полученных данных поисковые системы получают возможность выводить сайт в выдаче результатов. Так как базы данных постоянно обновляются, число проиндексированных страниц может периодически изменяться.

На сегодняшний момент существует два способа индексации – ручной и автоматический. Первый подразумевает под собой добавление адреса через соответствующую форму, в результате чего робот получает сведения о местонахождение сайта. Второй происходит в автоматическом режиме без вмешательства пользователя. Так как данный процесс может длиться неограниченное время, для его ускорения используются внешние ссылки с уже проиндексированных сайтов.

Управление индексированием осуществляется при помощи файла robots.txt, в котором возможно разрешить либо запретить доступ роботов к тем или иным страницам.

ВИЦ (Взвешенный индекс цитирования) – показатель популярности веб-сайтов, используемый поисковой системой Яндекс. ВИЦ является аналогом PageRank. ВИЦ, как и ТИЦ, высчитывается по сходному алгоритму, учитывающему количество ссылок, ведущих на сайт с других ресурсов, но, в отличие от последнего, ВИЦ определяется для каждой из страниц и оказывает непосредственное влияние на их позиции в результатах поиска. Значения ВИЦ нигде не публикуются и известны только системе Яндекс.

Контент – это прямая калька с английского, где слово content означает “содержание, содержимое”. Это собирательный термин для любой информации, которая содержится в информационном ресурсе. Если речь идет о веб-ресурсе, то легко себе представить сайт – это форма: оформление, макет – и содержание, контент: тексты, фотографии, картинки, видео и аудиофайлы.

Контент может быть постоянным, может регулярно пополняться. Например, контент новостных сайтов, блоги. Вообще, качество контента может быть разным, как и качество сайта, ведь интернет поражает многообразием. Это может быть сайт школьника, который увлекается кузнечиками, и сайт крупной газеты, где публикуется электронная версия оригинальных профессиональных статей, самые последние новости.

Уникальный и неуникальный контент

Качество контента и его актуальность являются залогом трафика, притока посетителей на сайт. Можно только представить, сколько людей в мире отправляется за оригинальной и беспристрастной информацией на сайт BBC, где новости публикуются “из первых рук”. Находятся и пользователи, которые довольствуется перепечаткой и пересказом новостей – есть и такие новостные сайты. А есть и такие, которые просто перепечатывают готовые статьи.

Это важный момент для разделения контента на уникальный или неуникальный. Уникальным контентом может называться любой контент, который еще ни разу не был опубликован в сети. Неуникальный – это перепечатка, заимствование, что является нарушением авторских прав. Закон об интеллектуальной собственности распространяется и в интернете. Неуникальный контент часто даже не индексируется поисковыми машинами.

Уникальный контент также должен обладать ценностью, а не быть набором невразумительных слов. Это важно не только с точки зрения посетителей сайта, но и с точки зрения поисковых систем, которые различают уникальный контент и даже выделяют спам. Если к созданию уникального контента применить основы SEO-оптимизации и использовать семантическое ядро, то ценность его с точки зрения поисковых систем повысится.

Контент как средство продвижения

Таким образом, уникальный контент может рассматриваться как одно из самых действенных средств продвижения сайта. Уникальные фото и рисунки, уникальные картинки, уникальные тексты качественного исполнения привлекут на сайт реальных потребителей и проиндексируются поисковыми машинами.

Сайт, который предоставляет только уникальный контент, обладает определенным трастом. Это понятие не имеет числового выражения, но оно обозначает определенную степень доверия со стороны и пользователей, и поисковых машин. Этот фактор иной раз имеет преимущества даже перед SEO-оптимизацией: сайт с высоким трастом идет на выдаче перед грамотно оптимизированным контентом.

Контент является продуктом интеллектуальной деятельности и, соответственно, товаром. Владелец сайта не обязан создавать контент, он может его купить. Это утверждение равно для сайтов крупных корпораций, где в штате работают десятки копирайтеров, и для частных сайтов, где нет штата работников, а владелец заказывает статьи копирайтерам или покупает тексты на биржах копирайтинга.

Существует также понятие: пользовательский контент. Это та часть сайта, которая создается посетителями сайта: комментарии, стихи , рассказы, рецензии, размещенные пользователями.