SeoNews.com.ua - SEO & Search Engine News
Поисковая оптимизация
Популяризация токенов способна значительно повысить уровень безопасности в сфере электронной коммерции
Эксперты предлагают заменить передаваемые на торговые серверы финансовые данные электронными идентификаторами, не имеющими ценности для злоумышленников.

Как сообщает издание Network World со ссылкой на доклад одного из крупнейших производителей токенов безопасности, широкомасштабное внедрение такой меры, как дополнительные этапы идентификации, способно в значительной степени сократить количество успешных хакерских атак в сфере электронной коммерции.


Персональные данные граждан РФ будут храниться на российских серверах
Депутаты предлагают изменить дату вступления в силу закона «О персональных данных», согласно которому соцсети и сервисы электронной почты будут обязаны хранить личную информацию пользователей на российских серверах.

Как сообщает издание "Известия", депутаты Госдумы РФ выступили с предложением внести некоторые коррективы в закон «О персональных данных», согласно которому социальные сети и сервисы электронной почты будут обязаны сохранять информацию о конфиденциальных данных граждан РФ на серверах, которые располагаются на территории России. Указ был подписан В. Путиным в июле текущего года, и вступает в действие 1 сентября 2016 года. Тем не менее, госчиновники предлагают ускорить процесс и узаконить перенос личной информации пользователей уже с 1 января следующего года.

Пользователям Wi-Fi в московском метро скоро придется регистрироваться
По просьбе руководства столичного метрополитена компания «Максима Телеком» разработала программное обеспечение, посредством которого будет происходить аутентификация пользователей.

В скором времени все желающие воспользоваться услугами Wi-Fi в Московской подземке смогут сделать это только по регистрации. По просьбе администрации метро компания «Максима Телеком» разработала ПО для аутентификации пассажиров. Новая система будет распознавать посетителей подземки по IMEI-номерам их девайсов, пишут «Известия».

Зарубежным компаниям могут ограничить доступ к российским гостайнам
По предварительным данным, лишиться соответствующей лицензии могут четыре крупнейших аудитора - Deloitte, EY, KPMG и PwC.

Как сообщает издание «Ведомости» со ссылкой на собственных информаторов в двух компаниях из четверки крупнейших зарубежных аудиторов в РФ, отечественные силовые структуры усилили давление на компании и в перспективе могут лишить их возможности работать с данными, представляющими собой государственную тайну.
Началась последняя неделя льготной регистрации на конференцию CEE-SECR «Разработка ПО»
На конференции рассмотрят все аспекты разработки программного обеспечения.

Стартовала последняя неделя льготных летних цен на конференцию CEE-SECR «Разработка ПО» — одно из важнейших событий ИТ-индустрии в России.

До 31 августа регистрационный взнос будет ниже финальной цены на более чем 37%. Кроме того, продолжают действовать специальные предложения для студентов, аспирантов и групп от трех человек. Все скидки суммируются


Seo News
Facebook готовит исправление уязвимости, заставляющей iPhone совершать звонки
Разработчики социальной сети намерены устранить брешь в ближайшем обновлении мобильного приложения для iOS.

Как сообщают представители социальной сети

Facebook, разработчики компании намерены в ближайшее время выпустить обновление безопасности для своего мобильного приложения для iOS-устройств. Речь идет об опасной уязвимости, эксплуатация которой позволяет злоумышленникам удаленно совершать звонки со смартфонов iPhone, принадлежащих жертвам атаки. Для этого достаточно вынудить пользователя перейти по специально сформированной вредоносной ссылке.
95% электронных уведомлений от Facebook успешно шифруются

В Facebook отметили рост количества провайдеров, развертывающих шифрование с помощью STARTTLS.

95% посылаемых Facebook по электронной почте уведомлений, являются зашифрованными. Электронные письма шифруются с помощью свойства протоколов под названием «Совершенная прямая секретность» (Perfect Forward Secrecy, PFS) и строгой проверки подлинности сертификата. Об этом сообщил инженер Facebook Майкл Эдкинс (Michael Adkins), занимающийся вопросами неприкосновенности сообщений пользователей.

Microsoft представит Windows 9 в конце сентября

В ранней версии Windows 9 будет добавлено переработанное меню "Пуск" и, возможно, голосовой помощник Cortana.

В компании Microsoft планируют представить следующую версию ОС Windows во время специального события для прессы, которое состоится в конце сентября. Как сообщает издание The Verge, ссылаясь на собственные источники, в настоящее время представители корпорации собираются рассказать об изменениях в новой версии Windows, получившей кодовое наименование «Threshold» («Предел»), 30 сентября этого года. Напомним, что следующая версия Windows в настоящее время находится в разработке, и в Microsoft планируют выпустить предварительную версию ОС для разработчиков (Developer Preview) 30 сентября или позже.

Google AdWords забанит пейнтбольное и прочее оружие
Менее чем через месяц Google запретит рекламу оружия для страйкбола и пейнтбола, пневматических пистолетов, боеприпасов, обойм и портупей. Жалобы на такую рекламу ранее поступали в Google AdWords Help.

Google опубликовал предварительную версию изменения политики, которая в настоящее время позволяет рекламировать такие товары на AdWords.

Вот образец письма, отправленного рекламодателям AdWords:

«Уважаемый рекламодатель AdWords,

Мы извещаем вас об изменении правил размещения рекламы Google, которые могут повлиять на ваш аккаунт AdWords.


Уязвимость в Windows продолжает создавать опасность для пользователей
Наиболее часто уязвимость CVE-2010-2568 эксплуатировали на ОС Windows XP.

Согласно документу, опубликованному Лабораторией Касперского, злоумышленники продолжают эксплуатировать уязвимость CVE-2010-2568 , несмотря на “возраст” бреши. Недавно Лаборатория Касперского обнаружила десятки миллионов эксплоитов, направленных на устранение ошибки в период с ноября 2013 по июнь 2014 года, которые не устранили ее. Жертвами кибератаки стали 19 миллионов пользователей по всему миру.

Search Engine News
Подпишись на рассылку и будь всегда в курсе наших новостей.

SEO-аудит сайта от Сергея Кокшарова. Технический и внутренний аудит

SEO-аудит сайта от Сергея Кокшарова. Технический и внутренний аудит
Очень часто молодые оптимизаторы или начинающие владельцы сайтов, которые задумываются над поисковым продвижением, забывают (или вообще не знают) о необходимости проведения SEO-аудита своих сайтов. А такие аудиты могут помочь сэкономить бюджет на рекламу и добиться хорошей видимости сайта в результатах поисковых систем.
4 сентября Сергей Кокшаров, эксперт-аналитик в области поисковой оптимизации и автор популярного в Рунете SEO-блога Devaka.ru провел для академии интернет-маркетинга WebPromoExperts вебинар «SEO-аудит своими силами», в котором рассказал, зачем нужны SEO-аудиты, на что следует обратить внимание в первую очередь при их проведении, и какими инструментами пользуется он лично для решения тех или иных задач.



Сергей рассказал о том, что существуют два направления при анализе сайта:

Первое - аудит (это может быть какой-то определенный контрольный список, по которому проверяется наличие стандартных требований). Аудит можно проводить самостоятельно, он решает более общие вопросы.

Второе - экспертиза. Она уже требует опыта и отвечает на более узкие вопросы. Например, такие как:
Как оптимизировать перелинковку для контент-проекта?
За что был наложен фильтр и как от него избавиться?
Как откорректировать стратегию развития сайта для получения большего числа посетителей?
Почему по запросу [часы касио] упали позиции, а по другим все ок?
Здесь могут понадобится нестандартные инструменты; возможно их придется заказать у разработчиков по специальному техзаданию.

Оба этих направления решают общую задачу - помогают улучшить сайт, получить больше посетителей и улучшить видимость в поиске.

Далее Сергей более подробно остановился на аудите, не затрагивая глубокие вопросы, собираясь дать примерный план аудита, примеры и очертить общее направление движения, чтобы можно было его провести самостоятельно.

Для чего нужен SEO-аудит?
Он позволяет найти неиспользованный потенциал и, если полученные рекомендации внедряются, видимость ресурса в поисковых системах с большой вероятностью улучшится.

Какие сложности возникают при проведении?

1. Требуются хотя бы небольшие аналитические навыки. Если их нет, лучше попросить знакомых или заказать данную работу у подрядчика(будет возникать ряд проблем).

2. Сложно без опыта и примеров. Необходимо иметь доступ к некоторым инструментам и владеть какими-то методиками.

3. Нужно ориентироваться в современных тенденциях поисковых алгоритмов.

Анализируя сайт, прежде всего нужно разбираться в том, как он работает. Хотя бы понимать, что он состоит из html-кода, что у него есть http-заголовки, текстовые ссылки. Нужно представлять, как работает поисковая система. Возможно, не очень глубоко, но хотя бы в общих чертах понимать принцип ее работы.

Основные этапы работы поисковой системы
1. Составление плана.

Поисковая система составляет план - на какие сайты зайти, какие новые страницы индексировать или переиндексировать. На каждый момент времени у нее есть план, что сейчас делать. На данном этапе вебмастеру нужно показать поисковой системе, что на сайте появилось что-то новое или изменилось что-то из старого.

2. Сбор данных.

Потом робот собирает данные, так называемый процесс “crawling”. Поисковая система взаимодействует уже непосредственно с сайтом. На данном этапе необходимо обеспечить максимально эффективное взаимодействие с поисковыми роботами.

3. Индексация Дальше происходит индексация сайта (сохранение полученных данных). Проверка индексации страниц своего сайта должна выполняться вебмастером постоянно, для того, чтобы избежать ошибок индексации и вовремя заметить выпадение каких-либо страниц из индекса.

4. Вычисление Потом вычисление различных метрик — таких как PageRank, SpamRank и TrustRank на основе характеристик текста и ссылок.

5. Ранжирование

Происходит непосредственно в тот момент, когда пользователь вводит свой запрос. (На основе сложной формулы заложенной в поисковую систему.)

6. Оценка качества результатов поиска

На последнем этапе поисковая система обязательно оценивает качество результатов поиска. То есть, насколько пользователь остался доволен, насколько сайты находящиеся сейчас в топе заслуживают быть там и стоит ли изменить их позицию.

Что нужно анализировать в аудите?
Здесь на помощь приходят метрики эффективности, которые помогают определить — насколько эффективно работает сайт или насколько эффективно он оптимизирован.

Сергей выделил четыре основные метрики:



Если выбирается метрика «Траффик», стоит уделить внимание (кроме прочего) сниппету, его оформлению, сравнить с другими сниппетами — насколько он привлекает пользователя?

Если целью является постоянный рост семантического ядра, чтобы на сайт заходили по большему количеству запросов — нужно добавлять больше товаров, новые тексты и так далее.

Метрики часто взаимосвязаны между собой. Например, если мы хотим улучшить позиции - возможно, нам необходимо где-то переписать тексты, что непосредственно затрагивает и юзабилити, и визуальное восприятие сайта.

Последняя группа метрик - технические, о которых редко говорят, но именно они чаще всего встречаются в SEO-аудитах. Это все те моменты, благодаря которым сайт максимально эффективно взаимодействует с поиском в техническом плане.

Без каких инструментов нельзя обойтись?
1. Бесплатный онлайн сервис SEO-cheklist. В этом чеклисте есть ряд пунктов, следуя которым можно отмечать для себя, выполнен или нет тот или иной пункт.

2. Также очень пригодится бесплатная программа Xenu. Она позволяет сканировать сайт и находить внутренние ошибки, скорость ответа страниц (то, о чем говорилось в техническом плане).

3. Для браузеров есть определенные плагины, на которые стоит обратить внимание.
Web Developer Toolbar для Mozilla Firefox позволяет отключать «куки», картинки, кэш, проверять валидность кода и прочее. Он упрощает работу с кодом.
Firebug, которым можно посмотреть сам код в очень удобной форме, загрузку каждого элемента страницы. С помощью этого плагина можно выяснить, загрузка каких элементов страницы занимает больше всего времени.
4. И, конечно, же не обойтись без Яндекс.Метрики, Google Analitycs и «Панели для веб-мастеров» Google или Яндекса.

После бесплатных инструментов Сергей перечислил также и платные. Даже если их не покупать, ознакомиться с ним все же будет нелишним. Это:

Screaming frog SEO spider очень похож на Xenu, но он позволяет более гибко проводить анализ и находить дубликаты.
Key Сollector позволяет работать с семантическим ядром и производить более широкий и удобный анализ семантики.
Ahrefs позволяет проводить анализ внешней оптимизации по различным разрезам.
Его альтернатива - Majestic SEO. У Маджестика есть ряд других особенностей: можно посмотреть историю появления ссылочной массы. Есть метрики, которые помогают определить насколько сайт «трастовый» (в какой мере ему доверяют поисковые системы).
Виды аудита
В зависимости от того, какие проблемы и метрики мы изучаем, аудит приобретает то или иное направление:
Технический
Внутренний
Внешний
Анализ семантики
Анализ структуры сайта
Далее Сергей подробней остановился на каждом из видов.

Технический аудит

Что анализируем?
Код сайта
Скорость загрузки страниц
Объем страниц
HTTP-заголовки
robots.txt и meta-robots
Полезные инструменты для проведения технического аудита:
Панели для веб-мастеров
Web Developer Toolbar
Firebug
Xenu Link Sleuth
Screaming frog SEO spider
Site Auditor
Сергей привел несколько примеров. Например «Сообщения об ошибках в панели для вебмастеров».



Здесь показано, сколько 404-ых ошибок увидел робот, сколько страниц сайта запрещено файлом robots.txt, сколько содержат тег noindex. То есть, конкретная информация о том, как поиск видит документы и что рекомендуется исправить.

А вот другой пример - результат работы программы Site Auditor. Здесь можно проанализировать как общие характеристики (тИЦ, PageRank), так и посмотреть, сколько страниц сайта проиндексировано в определенных каталогах. Часто эта информация необходима.



Еще один пример - результат работы Web Developer Toolbar, когда отключаются «куки» и смотрится, как сайт выглядит без них. В данном случае левое меню формировалось исходя из того, какую страницу пользователь посещал в последний раз.



Естественно поисковая система не использует «куки»; она видит другое меню, не такое, как пользователь. На это тоже важно обращать внимание и знать, как видит сайт поисковая система.



Другой пример работы этой же программы - когда можно посмотреть сводную статистику по документу, какой его размер, сколько составляют картинки, различные flash-объекты или скрипты, стили. Посмотреть, что мы можем в данном случае оптимизировать.

На что стоит обратить внимание при техническом аудите? Часто допускаемые ошибки:
Плохой хостинг
Отсутствие 404 страницы
Большой robots.txt для Google - это зло!
Пример плохого хостинга. Вот что может получиться, если немного увеличить нагрузку на сайт. Хостинг не выдерживает и выдает 502-ю ошибку.



Это плохо, потому что когда на сайт заходит поисковая система, она должна получать 200-й код - сайт в порядке или 304-й - содержание не изменилось.

404-я ошибка. Многие забывают ее оформить. Эта ошибка значит, что пользователь попал на страницу, которая не существует.

Обязательно нужно проверить, есть ли на 404-й странице какая-то информация. Люди могут переходить на несуществующие страницы, и логично в таком случае предоставить им какую-то полезную информацию, чтоб они не уходили, а продолжали работать с сайтом.

HTTP-заголовки — даже создавая 404-ю страницу, некоторые забывают в заголовках указать, что у нее код 404-й ошибки и отдают вместо него 200-й. Это означает, что такая страница существует и должна быть включена в индекс. В данном случае проверка была произведена с помощью плагина Firebug.



Про Robots.txt: некоторые сайты заводят очень длинный файл Robots.txt надеясь, что робот Google не будет переходить по этим страницам.



Для Яндекса это нормально, это работает и он исключает такие страницы из индекса. А Google по этим страницам не переходит, но и не исключает их из поиска, если он раньше их уже проиндексировал, или если на эту страницу ссылается много ссылок.

В результате получается мусорный индекс, когда сниппеты содержат текст «Описание веб-страницы недоступно из-за ограничений в файле robots.txt». Но, тем не менее, эти файлы в индекс добавляются.



Внутренний аудит

Здесь в первую очередь нужно анализировать:
Индексацию и дубли
Заголовки, мета-описания, контент
Код сайта
Работоспособность ссылок
Полезные инструменты - уже стандартный для нас набор программ и дополнение к нему - «Операторы запросов».

Вот пример с повторяющимися мета-описаниями в Google Webmaster Tools.



Сервис обязательно нужно использовать, смотреть и исправлять эти ошибки.

1. Основной индекс Google. У Google есть два типа индекса - основной и дополнительный. Все результаты, которые берутся для ранжирования, берутся из основного; а те, которые попадают в дополнительный, с большой вероятностью не показываются пользователю.

Есть оператор &, которой при вводе поискового запроса, как на изображении ниже, показывает в результатах - какие именно страницы находятся в основном индексе:



Если убрать этот оператор, то появятся все страницы, как из основного, так и из дополнительного индекса.

2. Тестовые поддомены в индексе.



На слайде пример, когда разработчики забыли закрыть от индексации тестовый поддомен. И это создает большое число дублей, что мешает сайту ранжироваться по каким-то низкочастотным запросам.

3. Код сайта.

С помощью инструмента Firebug можно анализировать код внутри сайта. Следует обратить внимание на следующие ошибки:
Скудный meta-description
Отсутствие бренда в заголовках
Наличие малозначимых страниц
Novatek - это крупный интернет магазин. В прошлом году там была ссылка на страницу с уцененными товарами (и до сих пор присутствует).



Когда пользователь переходит по ней, он попадает на пустую страницу. Для пользователя это не несет ценной информации, для поисковика тоже. Он добавляет эту страницу в дополнительные результаты.

Отсутствие жесткой модерации - плохо, это надо анализировать. Например, искать в пределах сайта какие-то стоп-слова.



На слайде продемонстрировано, как на одном из известных форумов (он был взломан или модератор не уследил) на странице находится поисковый спам. Это плохо для самого сайта, так как поисковик, находя поисковый спам, снижает свое доверие к ресурсу.

Следующий тип анализа - анализ внешней оптимизации. Об этом в следующей статье.