LSI-контент: основные принципы
11 декабря 2018
Автор: Некстайп Веб-студия
Война с поисковым спамом началась почти 10 лет назад. Тогда, в 2009 году, Yandex провел исследование и определил: четверть сайтов Рунета — это контент, созданный не для людей, а для поисковых машин для влияния на выдачу. Этой проблемой очень плотно занялись. И прорывом стал запуск «гугловского» алгоритма под названием «Колибри» - ориентированного на разговорные, «живые» запросы (как в голосовом поиске). В постоянном взаимодействии поисковиков и SEO-специалистов контент, ориентированный на роботов, стал перерождаться в LSI. Что это такое и каковы основные принципы данной методики?
Возвращаясь к результатам анализа 2009 года, скажем, что тогда Yandex получил следующие данные по Рунету: его текстовая информация в совокупности весила 140 000 Гб. Чтобы прорваться на первые позиции поисковой выдачи, специалисты по SEO использовали серые методы продвижения страниц и сайтов. Алгоритмы того времени позволяли этим заниматься, ведь они не вычленяли смысл информации, а ориентировались на ключевые слова: чем их плотность выше, тем страница считалась более релевантной. По такому принципу и формировалось поисковое ранжирование. На первые позиции попадал переспамленный ключами контент — бесполезный для пользователя и минимально релевантный запросу.
Алгоритмы совершенствовались и постепенно свели на нет эффективность подобных методик. Так зародился LSI, который защищает поисковики от серых манипуляций. Методика позволяет выстраивать ранжирование не на основе «ключевиков», а по общей семантике текста.
Историческая справка
LSI (латентное семантическое индексирование) — это принцип индексирования семантики в связи с контекстом, который позволяет ранжировать страницы по максимальной релевантности естественному запросу.Возвращаясь к результатам анализа 2009 года, скажем, что тогда Yandex получил следующие данные по Рунету: его текстовая информация в совокупности весила 140 000 Гб. Чтобы прорваться на первые позиции поисковой выдачи, специалисты по SEO использовали серые методы продвижения страниц и сайтов. Алгоритмы того времени позволяли этим заниматься, ведь они не вычленяли смысл информации, а ориентировались на ключевые слова: чем их плотность выше, тем страница считалась более релевантной. По такому принципу и формировалось поисковое ранжирование. На первые позиции попадал переспамленный ключами контент — бесполезный для пользователя и минимально релевантный запросу.
Алгоритмы совершенствовались и постепенно свели на нет эффективность подобных методик. Так зародился LSI, который защищает поисковики от серых манипуляций. Методика позволяет выстраивать ранжирование не на основе «ключевиков», а по общей семантике текста.
LSI-копирайтинг
В условиях работы современных алгоритмов сформировались основные принципы эффективного копирайтинга:- Адекватное раскрытие темы запроса. Плотность ключей — давно не показатель. Роботы анализируют текст комплексно (ключевые n-граммы со словоформами, их смысловые аналоги, околотематические слова). И чем точнее и полнее текст отвечает на вопрос, тем больше вероятность оказаться на вершине выдачи.
- Создание интересного и уникального контента, который заставляет пользователя проводить больше времени на сайте. Это обусловлено анализом поведения: на верхние строки не попадают ресурсы, с которых гость быстро уходит.
- Минимум воды. Она мешает роботам вычленять истинный смысл текста, а соответственно, понижает страницу в рейтинге. Чем яснее и точнее раскрыта мысль, тем выше релевантность.
Что дальше?
Поисковики становятся умнее с каждым годом. Пока не идет речь о тотально семантическом анализе, но машины уже учатся объединять слова по смыслу, распознавать запросы по единственному слову. Система становится настоящим помощником, который способен предугадывать потребности и отлично понимать человека. Развитие технологий заставляет отказываться от техник серых SEO-манипуляции и обращаться к здравому смыслу — качественному, интересному, полезному контенту, который обеспечивает и повышает ресурсу трафик.
Предлагаем еще прочесть