3. Вѐрстка
• Использовать семантичную базовую тему
(например, http://drupal.org/project/sasson)
• $node->title оборачивать в единственный
<h1>, в контенте все заголовки оборачивать
в <h2>, <h3> и т. д.
• Пытаться делать код валидным и разводить в
нѐм меньше мусора и обѐрток
• Если уж AJAX, то с хэш-ссылками
4. «Универсальный» рецепт для
оптимизации контента
• Вхождение запроса в h1 и в title
• 2-3 точных вхождения в текст (одно из них —
в первый абзац), 3-4 неточных вхождения
• 2000-4000 символов уникального и
интересного человеку текста
• Полезны списки, подзаголовки, картинки с
alt, таблицы (и вхождения запроса в них)
• Наличие внутренних ссылок на страницу с
анкорами, содержащими запрос
6. Микроформаты и Rich snippets
• Schema.org теперь известна и Яндексу
http://help.yandex.ru/webmaster/?id=1122788
• Про RDFx я рассказывал год назад
http://goo.gl/75szZ
• Google тоже всѐ подробно рассказал
http://goo.gl/uQhRO
• Ссылка в сниппете на профиль автора в
Google+ делается так: http://goo.gl/fbvUb
7. Правильный title
Можно (и нужно для больших сайтов)
автоматически создавать примерно такие
заголовки:
Купить смартфон HTC Desire S за 17900 руб. с
бесплатной доставкой
Примерно по таким шаблонам:
Купить [term:description] [node:field-brand]
[node:field-model] за [node:field-retailprice]
руб. с бесплатной доставкой
8. Один модуль для всех мета-тегов
• http://drupal.org/project/metatag умеет почти
всѐ (page_title больше не нужен) и
поддерживает токены
• Поддерживает OpenGraph и кастомные теги
• В песочнице есть модули для его интеграции
с Views
• В него обещали добавить функциональность
привязки тегов к произвольному пути, такое
умеет http://drupal.org/project/metatags_quick
9. Адреса страниц
• Активно используются поисковыми
системами (вхождение запроса в url
выделяется в выдаче)
• Помогут в навигации вам и продвинутым
пользователя, используются системами
статистики для кластеризации сайта
• Являются частью UI для пользователей
(Opera прячет GET-параметры, для Firefox
есть эдд-он Locationbar² и пр.)
10. Настройте pathauto
• http://drupal.org/project/pathauto работает
вместе с нужным и для файлов тоже
http://drupal.org/project/transliteration
• Умеет строить url`ы для материалов
(отдельно по типам) и терминов таксономии
(отдельно по словарям) с использованием
token`ов (уже видели на примере title какие
это даѐт возможности)
• Но дефолтные настройки опасны…
11. Редиректы
• http://drupal.org/project/redirect помогает
избавиться от дублей, рождаемых pathauto
• http://drupal.org/project/globalredirect
перенаправляет с адресов со слешем на
конце на адреса без слеша (и наоборот), с
/node на / (исключает дубли главной
страницы)
12. Замена url`ов в контенте на новые
или абсолютные
• http://drupal.org/project/pathologic позволяет
создать фильтр контента, заменяющий url`ы
ссылок и src изображений и embed-объектов
с относительных на абсолютные.
• Умеет также заменять домен в уже заданных
абсолютных url`ах в контенте.
• nofollow-фильтр только для внешних ссылок
http://goo.gl/aOIxD
13. Карта сайта для поисковых
роботов (XML) и людей
• http://drupal.org/project/xmlsitemap делает
как надо, приоритет страниц и частоту
обновления выставляйте честно
• Добавьте карту в панели веб-мастеров
• Карту для людей можно сделать с помощью
Views и блоков/панелей
14. Основное зеркало сайта
• Если Яндекс его уже выбрал, то лучше не
меняйте. Везде используйте ту версию, что
является основным зеркалом
• Если сайт новый, то лучше сделать без www.
• Установите 301-й редирект с www на non-
www
• Первые внешние ссылки должны быть без
www
15. 301-й с на non-www в nginx
if ($host ~* www.(.*)) {
set $non_www $1;
rewrite ^(.*)$ http://$non_www$1 permanent;
}
Все варианты редиректов домена для Apache и
nginx есть в статье: http://goo.gl/tpN6q
16. Что написать в robots.txt
• http://drupal.org/project/robotstxt разрешает
управлять содержанием robots.txt прямо
через панель администрирования (полезно
для мультисайтинга).
• Рекомендация: Dissallow на все системные
директории, а также на /node/* (но только
если нормальное работают CleanURLs),
добавляем Host и ссылку на XML-карту,
меняем Crawl-Delay
17. Внутренняя перелинковка из
контента (очень полезна)
• http://drupal.org/project/alinks
• http://drupal.org/project/customfilter
позволяет создать кешируемый фильтр
контента и включить в него несколько
правил, каждое из которых представляет
собой замену по регулярному выражению
(можно менять первое точное вхождение
запроса на внутреннюю ссылку)
18. Выборки похожих материалов
• Много вариантов было показано в докладе с
московского DrupalConf http://goo.gl/nnvDi
• Для небольших сайтов и магазинов лучше
подбирать руками (и воплощать через
http://drupal.org/project/entityreference или
http://drupal.org/project/references)
• Возможная форма подачи похожих
материалов http://goo.gl/j6Fsu
19. «Хлебные крошки» (breadcrumbs)
• http://drupal.org/project/custom_breadcrumbs
умеет строить хлебные крошки на основании
типа ноды и текущего пути, соответственно,
эффективно взаимодействует с path_auto
• http://drupal.org/project/custom_breadcrumbs
распознаѐт путь по маске
• И ещѐ есть http://drupal.org/project/hansel
21. Привлечение внешних ссылок из
социалок
• http://drupal.org/project/addthis
• http://drupal.org/project/yashare
• http://share42.com/ru
• Или вручную создайте блок с виджетом от
http://api.yandex.ru/share, также хорош своей
статистикой сервис http://www.addthis.com
(кстати, вы сделали печатную версию?)
22. Пинги и трэкбэки
• http://drupal.org/project/vinculum (ищите в
репозитории)
• Для пингов http://www.drupal.ru/node/66533
или http://drupal.org/project/simpleping
23. Страницы ошибок 404 и 503
• http://drupal.org/project/search404
показывает поисковую форму на 404-ой
странице. Интегрирован с search_by_page
• Drupal отдаѐт правильные коды (но 500-й
при упавшей базе)
• Напишите нормальные тексты для страниц-
ошибок, узнайте какие коды отдаѐт хостер
при багах.
24. Сайт быстрый и надѐжный
• Про highload — расскажут другие
докладчики, но вам нужно кеширование
• Google учитывал скорость сайта ещѐ до
Panda
• Скорость — это почти поведенческий фактор
• Выбирайте хорошего хостера (того, кто
быстро решает проблемы)
25. Про поведенческие факторы
Поисковые системы следят могут следить за
удовлетворѐнностью пользователей. Но как?
• Замер CTR сайта в выдаче
• Данные из тулбаров
• Анализ возвратов к поиску
• Точный трекинг по собственным
сервисам (DNS, Метрика/Analytics,
контекстная реклама), на вашем
и на чужих сайтах и т. д.
26. Что же делать?
Делайте удобные, быстрые и
полезные сайты для людей (и
делайте их лучше, чем конкуренты).
— Ваш Капитан Очевидность