LSI - сравнительно молодая "фишка", представляющая собой принципиально новый подход к написанию текстров для сайта. 

Аббревиатура LSI расшифровывается как "latent symantec indexing" или "скрытое семантическое индексирование". Что это значит?

Поисковые системы уже достаточно достаточно серьезно поумнели и алгоритмы, которые анализируют тексты на сайтах вполне можно считать проявлением "искусственного интеллекта". Поисковики прекрасно знают русский язык не только с точки зрения словарного запаса, но и умеют более глубоко анализировать тексты, выявляя их полезную суть. Задача копирайтера - донести эту суть как до робота, так и до пользователя.

Как это делалось в классическом SEO?

Известно, что при написании классического SEO-текста одним из важных параметров является плотность ключевых фраз. В старых учебниках и статьях указано, что оптимальная плотность - 6-10%. То есть, каждое 10-15 слово по статистике должно быть ключевым. 

Такие "оптимизированные" тексты составлять, обычно, не составло большого труда - берется одна фраза, например, "квартира на сутки в Выдропужске" и пишется текст на 1.5 тысячи символов, в котором, переливаясь из пустого в в порожнее, эта ключевая фраза приводилась во всех падежах и склонениях. Суть текста сводится к одной фразе - "вы можете снять квартиру в Выдропужске, позвонив по номеру такому-то". Роботы легко подхватывали эти тексты и через пару-тройку апдейтов страница с этим ключом оказывалась если не в топ3, то хотя бы в топ10.

Продающие тексты - ладно! Но некоторые владельцы информационных сайтов писали свои статьи подобным образом. Помните стишок про дом, который построил Джек? Там одно и то же повторялось по много раз, как говорится, для большей конкретизации и уточнения :)

Представьте,  что статья про выбор телефона написана примерно также многословно и витевато. Терпения большинства читателей хватит на 1-2 абзаца, а потом возникнет непреодолимое желание уйти с этого сайта. И тут как нельзя кстати в тексте стоит блок контекстной рекламы и CTR у него мама не горюй, процентов 25 как минимум!

Довольны все - вебмастер, который пропихнул сайт в топ,  и получал доходы от кликов, рекламная сеть, которая получала тоже доходы от кликов, но только не пользователи, которые приходят на сайт за полезной информацией, а вместо нее видят какое-то словоблудие.

Первым не выдержал Google и в 2011 году наслал на всех алгоритм "Панда", целью которого был отсев низкокачественных сайтов. Потом подтянулся и Яндекс с его фильтром "за переоптимизацию". Это были, можно сказать, первые робкие шаги к контролю за качеством текстов, которые заставили по иному взглянуть на классическое SEO. 

LSI приходит медленно, но верно!

Время шло, алгоритмы развивались и сейчас мы близки к тому, что классические  SEO-приемы, столь популярные раньше, уже почти не работают.  Недавно я в этом убедился на личном примере - статья на одном из сайтов пролезла в "топ" Яндекса по запросу, который не имел даже намека на явное вхождение в TITLE, Description и заголовки H*  - подробности в статье  "Действительно ли влияет TITLE страницы на SEO?"

И вот мы опять возвращаемся к тому, с чего начинали - LSI ("скрытое семантическое индексирование"). Суть этого приема написания текстов по принципу "вокруг и около" ключа - с использованием синонимов, устойчивых речевых оборотов, сравнения его с чем-то похожим, без явного навязчивого указания данного ключа. Он может встречаться в тексте, но не чаще и не реже, чем остальные замещающие его фразы. То есть, в общем и целом, LSI-копирайтер должен продемонстрировать в статье хороший словарный запас, свидетельствующий о том, что он действительно владеет данным вопросом.

Каковы основные выгоды LSI?

  • Во-первых, этот прием, если он будет учитываться (а он уже учитывается!) приведет к росту качества текстов в выдаче поисковой системы. Бестолковые SEO-тексты будут постепенно уходить из топов, их место займут статьи, написанные экспертами - это хорошо для пользователей.
  • Во-вторых, самим экспертам не нужно будет "париться" по поводу продвижения своих сайтов. Их задача - просто писать интересные тексты (это не проблема, если человек хорошо разбирается в данной области). Тексты со временем сами поднимутся в "топ". Яндекс определит смысл текста и будет показывать ваш сайт не только по прямому вхождению, но в результатах поиска в близких по смыслу запросах. Провренно на собственном опыте!

 

Словом, начинается интересное время для "копирайтеров-продвиженцев". И вот еще одна интересная закономерность:

  • В 1990-х годах для того, чтобы работать на компьютере, уже не обязательно было быть программистом (появились операционные системы и программы с графическим интерфейсом).
  • В 2000-х годах для того, чтобы создать сайт уже не обязательно было знать HTML, PHP, Javascript (появились "движки")
  • Во второй половине 2010-х уже не обязательно знать все SEO-тонкости, чтобы продвинуть сайт в топ - поисковики настолько поумнели, что стали почти понимать простой человеческий язык. 
  • Что будет через 10 лет? :)