Навигация по сайту
- Главная страница
- Шаблоны DLE 12.0
- Шаблоны DLE 11.1
- Шаблоны DLE 11.0
- Шаблоны DLE 10.6
- Шаблоны DLE 10.5
- Шаблоны DLE 10.4
- Шаблоны DLE 10.3
- Шаблоны DLE 10.2
- Шаблоны DLE 10.1
- Шаблоны DLE 10.0
- Шаблоны DLE 9.8
- Шаблоны DLE 9.7
- Шаблоны DLE 9.6
- Шаблоны DLE 9.5
- Шаблоны DLE 9.4
- Шаблоны DLE 9.3
- Шаблоны DLE 9.2
- Карта сайта
- Интересные новости
По тематикам
Полезное в рунете
Интересное в интернете
Наши партнёры
Календарик
« Март 2024 » | ||||||
---|---|---|---|---|---|---|
Пн | Вт | Ср | Чт | Пт | Сб | Вс |
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Интересная реклама
Добавлено: 2-07-2013, 11:32
Категория: О бизнесе
Диагностика и анализ сайта всегда были основой для успешного продвижения проекта в Интернете. Можно периодически обновлять свой ресурс, писать уникальный контент, но при этом не видеть всех тонкостей, происходящих на вашем блоге (сайте), и быть уверенным, что у вас все идет нормально, но...
Периодически необходимо проводить анализ ресурса по следующим пунктам:
проверять доступность проекта для поисковых систем;
устраивать проверку юзабилити ресурса;
анализировать факторы ранжирования: внутренние и внешние
Проверка доступности ресурса для поисковых систем
Файлы robots.txt и Meta robots
Одним из наиболее значимых системных файлов считается robots.txt, который содержит правила индексации сайта для поисковых систем. Главное, чтобы robots.txt был правильно написан и допускал поисковых ботов к индексации важных элементов проекта.
Meta robots. Этот тег выполняет, в принципе, ту же функцию, но он устанавливает правила индексации для каждой страницы проекта. Важным отличием является тот факт, что robots.txt, запрещая индексацию страницы, не может гарантировать падения странички из индекса, а Meta robots гарантирует на все сто.
Скорость загрузки сайта
Оптимальным временем загрузки ресурса считается 2-3 сек, в отдельных случаях – немного дольше. Если скорость загрузки страницы превышает данный интервал, вам нужно избавиться от ее лишнего веса. А именно: уменьшить количество HTTP-запросов, сжать компоненты страницы, минимизировать javascript, поместить скрипты в конец страницы, можно также оптимизировать CSS и HTML-коды.
Количество страниц в индексе
Периодически нужно проверять количество проиндексированных страниц, чтобы знать, не попал ли сайт под какой-либо фильтр. Если, к примеру, ваш интернет-ресурс содержит более 500 страниц, а в индексе видно одну или две, то это явный знак фильтра. Придется проанализировать проект по следующим пунктам:
плохой контент;
дублирование страниц;
увлеченность продажей ссылок;
резкое увеличение входящих ссылок;
жуткий переспам ключевых фраз, которые направлены на ботов;
резкое увеличение прироста страниц за короткий период, их небольшой объем и однообразность.
Это основные причины попадания под фильтры, но, кажется, этого будет достаточно. Теперь вам просто надо заняться «лечением больного». Определите причину попадания под фильтр и работайте над ошибками.
Проверяем Юзабилити сайта
Наполнение главной страницы проекта
При проведение юзабилити анализа сайта важно оценить общее впечатление, которое создает главная страница сайта. Следует особое внимание уделить следующим пунктам:
удобно ли располагаются элементы сайта;
присутствует ли обратная связь на видном месте;
как располагаются категории;
присутствует ли оптимизированный контент;
кликабелен ли логотип (он должен, по сути, ссылаться на основное зеркало, а не на URL со «всяким» /index и прочее);
проверить футер (не сброшены ли туда основные элементы проекта, и нет ли там излишних ссылок).
Изучаем структуру ресурса
После этого необходимо изучить общую структуру проекта:
наличие страниц, не дающих сайту пользы;
уровень вложенности не должен быть глубоким, оптимальный вариант – 3-4;
присутствуют ли для упрощения навигации по ресурсу «хлебные крошки», хотя они нужны не на всех сайтах;
удобно ли расположено меню сайта, бывает, что его местонахождение на главной странице не совпадает с остальными.
Важно посмотреть на свое детище глазами посетителя: что удобно, а что вводит в заблуждение.
Анализ внутренних и внешних факторов ранжирования
Адрес страниц должен иметь ЧПУ (человеко-понятный URL), содержать ключевые слова и т.д. И, помимо этого, создавая проект, необходимо думать о будущих пользователях и делать адреса страниц логичными (!).
Description & Title
Title страницы должен состоять не более чем из 60-70 знаков, содержать информацию о странице и главные ключевые фразы. Meta-описания в оптимальном варианте должны содержать 160-170 знаков, для каждой страницы являться уникальными и раскрывать ее тему. Проверьте выполняются ли данные условия.
Клоакинг и присутствие скрытого текста, ссылок
Скрытый текст – это текст белого цвета на белом фоне. Посетителю его не видно, но роботы его узнают и индексируют. Такой текст содержит ключевые фразы, и его обычно скрывают за картинками.
Скрытые ссылки – для них выбирают стиль и цвет под основной текст. Поэтому они малозаметны либо вообще не заметны. Иногда их прячут в символы.
Клоакинг – способ поисковой оптимизации, выдающий идеально оптимизированные странички ботам и обычные – пользователям. Кстати, позиция Google относительно этих страниц – вето на их индексацию.
Анкорный текст и профиль обратных ссылок
Используя сервисы, предназначенные для проверок обратных ссылок, можно узнать, имеются ли на ваш сайт обратные ссылки. Так можно просто ознакомиться с обратными ссылками проекта: узнать их количество, разнообразие анкорного текста и исследовать качество ресурсов, которые ссылаются на ваш проект.
Проанализировав и изучив все это, вы узнаете много полезных данных о своем проекте, поймете, на что нужно постоянно обращать внимание, над чем поработать основательно и т.д.
Вернуться
- Комментарий: 0
- Просмотров: 8 114
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.