» » Детальный анализ сайта важный вопрос
Навигация по сайту
По тематикам
Полезное в рунете
Интересное в интернете
Наши партнёры
Календарик
«    Март 2024    »
ПнВтСрЧтПтСбВс
 123
45678910
11121314151617
18192021222324
25262728293031
Интересная реклама


Добавлено: 2-07-2013, 11:32
Категория: О бизнесе
Детальный анализ сайта важный вопрос

Диагностика и анализ сайта всегда были основой для успешного продвижения проекта в Интернете. Можно периодически обновлять свой ресурс, писать уникальный контент, но при этом не видеть всех тонкостей, происходящих на вашем блоге (сайте), и быть уверенным, что у вас все идет нормально, но...
Периодически необходимо проводить анализ ресурса по следующим пунктам:
проверять доступность проекта для поисковых систем;
устраивать проверку юзабилити ресурса;
анализировать факторы ранжирования: внутренние и внешние

Проверка доступности ресурса для поисковых систем

Файлы robots.txt и Meta robots

Одним из наиболее значимых системных файлов считается robots.txt, который содержит правила индексации сайта для поисковых систем. Главное, чтобы robots.txt был правильно написан и допускал поисковых ботов к индексации важных элементов проекта.
Meta robots. Этот тег выполняет, в принципе, ту же функцию, но он устанавливает правила индексации для каждой страницы проекта. Важным отличием является тот факт, что robots.txt, запрещая индексацию страницы, не может гарантировать падения странички из индекса, а Meta robots гарантирует на все сто.

Скорость загрузки сайта

Оптимальным временем загрузки ресурса считается 2-3 сек, в отдельных случаях – немного дольше. Если скорость загрузки страницы превышает данный интервал, вам нужно избавиться от ее лишнего веса. А именно: уменьшить количество HTTP-запросов, сжать компоненты страницы, минимизировать javascript, поместить скрипты в конец страницы, можно также оптимизировать CSS и HTML-коды.

Количество страниц в индексе

Периодически нужно проверять количество проиндексированных страниц, чтобы знать, не попал ли сайт под какой-либо фильтр. Если, к примеру, ваш интернет-ресурс содержит более 500 страниц, а в индексе видно одну или две, то это явный знак фильтра. Придется проанализировать проект по следующим пунктам:
плохой контент;
дублирование страниц;
увлеченность продажей ссылок;
резкое увеличение входящих ссылок;
жуткий переспам ключевых фраз, которые направлены на ботов;
резкое увеличение прироста страниц за короткий период, их небольшой объем и однообразность.
Это основные причины попадания под фильтры, но, кажется, этого будет достаточно. Теперь вам просто надо заняться «лечением больного». Определите причину попадания под фильтр и работайте над ошибками.

Проверяем Юзабилити сайта

Наполнение главной страницы проекта
При проведение юзабилити анализа сайта важно оценить общее впечатление, которое создает главная страница сайта. Следует особое внимание уделить следующим пунктам:

удобно ли располагаются элементы сайта;
присутствует ли обратная связь на видном месте;
как располагаются категории;
присутствует ли оптимизированный контент;
кликабелен ли логотип (он должен, по сути, ссылаться на основное зеркало, а не на URL со «всяким» /index и прочее);
проверить футер (не сброшены ли туда основные элементы проекта, и нет ли там излишних ссылок).

Изучаем структуру ресурса

После этого необходимо изучить общую структуру проекта:
наличие страниц, не дающих сайту пользы;
уровень вложенности не должен быть глубоким, оптимальный вариант – 3-4;
присутствуют ли для упрощения навигации по ресурсу «хлебные крошки», хотя они нужны не на всех сайтах;
удобно ли расположено меню сайта, бывает, что его местонахождение на главной странице не совпадает с остальными.
Важно посмотреть на свое детище глазами посетителя: что удобно, а что вводит в заблуждение.

Анализ внутренних и внешних факторов ранжирования

Адрес страниц должен иметь ЧПУ (человеко-понятный URL), содержать ключевые слова и т.д. И, помимо этого, создавая проект, необходимо думать о будущих пользователях и делать адреса страниц логичными (!).

Description & Title

Title страницы должен состоять не более чем из 60-70 знаков, содержать информацию о странице и главные ключевые фразы. Meta-описания в оптимальном варианте должны содержать 160-170 знаков, для каждой страницы являться уникальными и раскрывать ее тему. Проверьте выполняются ли данные условия.

Клоакинг и присутствие скрытого текста, ссылок

Скрытый текст – это текст белого цвета на белом фоне. Посетителю его не видно, но роботы его узнают и индексируют. Такой текст содержит ключевые фразы, и его обычно скрывают за картинками.
Скрытые ссылки – для них выбирают стиль и цвет под основной текст. Поэтому они малозаметны либо вообще не заметны. Иногда их прячут в символы.
Клоакинг – способ поисковой оптимизации, выдающий идеально оптимизированные странички ботам и обычные – пользователям. Кстати, позиция Google относительно этих страниц – вето на их индексацию.

Анкорный текст и профиль обратных ссылок

Используя сервисы, предназначенные для проверок обратных ссылок, можно узнать, имеются ли на ваш сайт обратные ссылки. Так можно просто ознакомиться с обратными ссылками проекта: узнать их количество, разнообразие анкорного текста и исследовать качество ресурсов, которые ссылаются на ваш проект.
Проанализировав и изучив все это, вы узнаете много полезных данных о своем проекте, поймете, на что нужно постоянно обращать внимание, над чем поработать основательно и т.д.


Вернуться
  • Комментарий: 0
  • Просмотров: 8 114
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.