|

Поисковая оптимизация

Поисковая оптимизация , или английская поисковая оптимизация ( SEO ), о котором говорится о мерах , которые служат для обеспечения того , чтобы веб – сайты и их содержание в органическом рейтинге поисковой системы ( Natural листингов ) появляются на передних сидений. Умышленно влияя на размещение веб-страниц, изображений, видео или другого контента в поисковых системах , их охват должен быть увеличен. Оптимизация включает в себя все виды поиска, такие как поиск изображений, видео или новостей.

Поисковая оптимизация – это отрасль маркетинга в поисковых системах .

история

Веб-мастера начали оптимизировать сайты поисковых систем в середине 1990-х годов, когда первые поисковые системы начали каталогизацию ранней сети . В начале было достаточно отправить URL-адрес соответствующей страницы в различные поисковые системы, которые затем отправили веб-искателя для анализа страницы и проиндексировали ее.  Веб гусеничного сайта , размещенный на сервере поисковой системы, где вторая программу, известную как индексатор, Читать информацию и каталогизировать (упомянутые слова, ссылки на другие сайты). Владельцы сайтов быстро признали ценность продвижение сайтов в краснодаре и предпочтительного листинга в результатах поиска в поисковых системах, и вскоре появились компании, специализирующиеся на этой технологии.

Ранние версии алгоритмов поиска были основаны на информации, предоставленной самими веб-мастерами, например мета-элементами или индексными файлами в поисковых системах, таких как ALIWEB . Метаэлементы предоставляют обзор содержимого страницы, но вскоре стало очевидно, что использование этой информации не является надежным, поскольку выбор ключевых слов, используемых веб-мастером, может отражать неточное представление содержимого страницы. Неточные и неполные данные в метаэлементах могут отображать такие неуместные страницы в конкретных поисках.  Кроме того, разработчики страниц пытались использовать разные атрибуты в HTMLЧтобы манипулировать кодами страницы, чтобы страница лучше отображалась в результатах поиска.

Поскольку ранние поисковые системы в значительной степени полагались на факторы, которые были исключительно в руках веб-мастеров, они также были очень уязвимы для злоупотреблений и манипуляций в рейтинге. Чтобы получить лучшие и более релевантные результаты в результатах поиска, операторы поисковых систем должны были адаптироваться к этим условиям. Поскольку успех поисковой системы зависит от отображения релевантных результатов поиска для условий поиска, неуместные результаты могут заставить пользователей искать другие способы поиска в Интернете. Ответ поисковых систем заключался в более сложных алгоритмах ранжирования, в которых содержались факторы, на которые не влияли или вряд ли влияли веб-мастера. Ларри Пейдж и Сергей Брин разработали с “Backrub – это поисковая система, основанная на математическом алгоритме, который оценивает популярность веб-сайтов. Число, вычисленное алгоритмом PageRank на страницу, зависит от количества и силы обратных ссылок .  PageRank отражает вероятность того, что пользователь приземлится на определенную веб-страницу, когда он будет заниматься серфингом в Интернете и случайно нажимает на ссылки.

Страница и Брин основали Google в 1998 году, а простой дизайн помог поисковой системе добиться огромного успеха.  Google использовал внестраничные факторы (такие как ранжирование страницы и анализ гиперссылок), а также факторы на странице (частота ключевых слов, метаданных, структура страницы и т. Д.) Для ранжирования. Поисковая система хотела обрабатывать манипуляции, как в тех поисковых системах, которые использовали только факторы на странице. Хотя PageRank было более сложно повлиять, веб-мастера уже разработали стратегии построения ссылок и инструменты, которые позволили им ранжировать поисковую систему Inktomiвлиять. Эти методы также оказались успешными для PageRank. Многие сайты сосредоточены на покупке, продаже и обмене ссылками, часто в значительной степени. Эти фермы ссылок часто создавали тысячи сайтов с единственной целью связывания спама .

С 2004 года поисковые системы использовали широкий спектр секретных факторов в своих алгоритмах ранжирования, чтобы уменьшить влияние манипуляции с ссылками. В 2007 году Google уже использовал более 200 различных сигналов для определения списка конкретных веб-страниц в результатах поиска.  Ведущие поисковые системы , как Google, Bing и Yahoo не раскрывали алгоритмы ранжирования. Некоторые поисковые системы изучали их с помощью различных подходов к поисковой оптимизации и делились своими знаниями. Также были использованы патенты, связанные с поисковыми системами, для сбора информации о функции.

В 2005 году Google начал персонализировать результаты поиска на основе предыдущих запросов зарегистрированных пользователей.  Брюс Клей тогда заявил в 2008 году, что рейтинг был устаревшим из-за персонализированного поиска, а дискуссии о манипулировании рейтингами в поисковых системах были устаревшими, поскольку одни и те же поисковые запросы потенциально могут дать разные результаты для разных пользователей. В 2007 году Google объявила о кампании против купленных ссылок, которые влияют на PageRank.  В 2009 году Google объявила, что были приняты меры для снижения влияния так называемой скульптуры PageRank (способ добавления веса к определенным ссылкам на странице и повышения целевой ссылки в Google) с помощью « nofollow»Атрибут ссылок. Этот атрибут, первоначально представленный Google, теперь игнорируется PageRank для смягчения влияния варификации PageRank с помощью SEO.  В ответ были вскоре использованы другие методы , которые заменяли NoFollow теги со скрытым кодом Java, который PageRank Лепка было возможно. Были предложены другие решения, такие как использование фреймов или флеш-памяти .

В 2009 году Google объявила, что будет использовать историю поиска всех пользователей для популярных результатов поиска. В 2010 году Google представила новую индексную систему Google Caffeine . Это позволило пользователям искать новости, сообщения на форуме и другое содержимое вскоре после даты выпуска. Google Caffeine представляет собой изменение способа обновления индекса Google.

Поиск в реальном времени Google Instant был введен в 2010 году , чтобы сделать результаты поиска своевременно и появляются соответствующие. Из-за растущей популярности социальных сетей и блогов это учитывалось при поиске в режиме реального времени и все больше внимания уделялось.

С Panda обновлением в 2011 году были наказаны в конце концов сайтов, скопировал содержимое страницы с других сайтов.  По состоянию на апрель 2012 года Google Penguin также понизил рейтинг сайтов, использующих манипулятивные методы повышения рейтинга (Webspam).

операция

Поиск и чтение содержимого веб-страниц соответствует известным стандартам HTML в Интернете , поэтому их соответствие созданию веб-страниц является первым шагом в оптимизации. Однако, согласно Google, достоверность HTML-страницы не влияет на их рейтинг.  Тем не менее, страницы, которые особенно совместимы с HTML, могут быть загружены браузером быстрее, что хорошо вознаграждается поисковыми системами.

Оптимизация поисковой системы в онлайн-маркетинге примерно подразделяется на две области ответственности: оптимизацию на странице и вне страницы. Эта категоризация привязана к критерию того, отредактирована ли ваша собственная страница или влияет ли она на другие сайты.

OnPage Оптимизация

Оптимизация Onpage включает все настройки, связанные с контентом, на ваш собственный сайт. Это включает оптимизацию содержимого страницы (включая контент ) с точки зрения качества контента , форматирования, заголовков и т. Д., А также технических аспектов, таких как заголовки и теги , а также внутренней структуры ссылок на странице. В общем, оптимизации offpage всегда предшествует оптимизация на странице.

Мета-элемент «ключевое слово», который был первоначально разработан для поисковых систем, больше не рассматривается Google. То же самое относится к метаэлементу «Описание». Однако это может отображаться как фрагмент текста в результатах поиска (в зависимости от поискового запроса), и поэтому его нельзя игнорировать.

Еще один шаг – выбор подходящих ключевых слов ( ключевые слова ). Это можно сделать с использованием свободно доступных баз данных, таких как база данных ключевых слов или веб-ассоциатор MetaGer . Кроме того, используется инструмент подсказки ключевых слов Google AdWords , в котором перечислены не только соответствующие ключевые слова, но и приблизительное количество ежемесячных поисковых запросов на каждый период поиска.

Обычно одна страница оптимизирована для одного-трех слов поиска. Часто большая страница разделяется на несколько страниц для оптимизации для разных условий поиска. Основные и вторичные ключевые слова (включая первичные и вторичные ключевые слова) указаны для каждой страницы. Условия поиска объединены с соответствующим содержимым. Один тип оптимизации выполняется с помощью так называемых целевых страниц ( целевых страниц ). Нажимая на ссылку, пользователь достигает оптимизированной страницы для целей SEO.

В ходе методов SEO в этой области развивается особый стиль письма, который можно охарактеризовать как стиль, оптимизированный для поисковых систем. Это следует за «правилами» SEO, которые продиктованы поисковыми системами поисковой системы. Это неявные правила, потому что они реконструируются на основе факторов успеха оптимизации, поскольку поставщик поисковой системы обычно не раскрывает своих критериев для качественной классификации индексированных страниц.

В поисковой оптимизации методы поисковых роботов и алгоритмы сортировки , таким образом, исследуются поисковыми системами. Они только частично раскрываются и часто исправляются, чтобы усложнить злоупотребление и предоставить пользователям соответствующие результаты. Неизвестные и секретные методы исследуются путем обратной разработки результатов поиска. Он анализирует, как поисковые системы индексируют веб-сайты и их контент , и как они оцениваются, сортируются и сортируются поисковой системой .

Спецификации поисковой системы для содержания страниц могут полностью противоречить правилам производства классического текста. Например, грамматические правила вряд ли будут играть роль для алгоритмов поиска. Таким образом, ключевое слово с частотной ошибкой может сделать больше, чтобы улучшить рейтинг, чем технически правильный термин. Однако этот подход уменьшается, поскольку Google и другие поисковые системы все чаще распознают и присваивают орфографические ошибки.

Поскольку эти механизмы подвержены динамике развития, этот стиль письма также адаптируется многократно, чтобы снова обеспечить наилучший результат оптимизации. Это означает, что страница никогда не оптимизируется только один раз. Напротив, для этого требуется постоянный анализ релевантности используемых ключевых слов, поскольку поведение пользователей также меняется.

В рамках продолжающейся разработки алгоритмов поисковой системы мобильные устройства (смартфоны, планшеты) также играют все более важную роль в поисковой оптимизации. Веб-сайт, который не адаптирован для мобильных устройств, особенно в мобильном поиске, значительно хуже, чем веб-сайты, которые, например, отвечают требованиям дизайна .

Off оптимизации страницы

Оптимизация «за пределами страницы» выполняется далеко от страницы, которая должна быть оптимизирована, и определяет все меры за пределами веб-сайта для оптимизации.

Недостаточно увеличить релевантность с мерами OnPage. Хорошая реклама в поисковых системах и высокой PageRank будет (количества и качества внешних ссылок на сайт обратной ссылки или обратную ссылку повлиявшей называется). Оптимизация оффлайн – это создание структуры ссылок с другими веб-сайтами, чтобы лучше позиционировать себя в конкретных тематических областях. Для этого они ищут тематически подходящие веб-сайты, чтобы выиграть их для партнерских отношений . Еще одной мерой для поиска возможных партнеров по связям является анализ ссылок конкурентов. Кроме того, использование так называемых инструментов исследования ссылок может оказаться полезным для лучших подстраницОбласть scour . Кроме того, дизайн текста ссылок ссылок необходим для размещения определенных ключевых слов. Чтобы исследовать сайты по своему потенциалу, можно использовать бесплатные веб-приложения . Часто для изменения рейтинга поисковых систем достаточно небольших изменений.

Предполагается, что в дополнение к обратным связям одновременная генерация так называемых «социальных сигналов» также все чаще учитывается для ранжирования. Это упоминания о сайте в виде «Likes», «Акции», «Комментарии» ( Facebook ) или «Plus1» ( Google+ ), а также «Tweets» и «Retweets» ( Twitter ). Основой этого развития является то, что поисковые системы не только анализируют обратные ссылки, но и алгоритмически изучают, как интенсивно пользователи обмениваются данными через веб-сайт в выбранных социальных сетях, таких как Facebook или Google+.

Также собранные поисковыми системами пользовательские сигналы учитываются при расчете ранжирования. Как часто пользователь нажимает на результат, остается на хит-сайте или возвращается в список результатов, влияет на рейтинг. Например, позитивные сигналы генерируются, например, для Google, если пользователь задерживается на веб-сайте в течение более длительного периода времени, вместо того, чтобы оставлять его напрямую.

Академическая поисковая оптимизация

Поисковая оптимизация применяется не только к веб-страницам, но и к академическим файлам PDF для оптимизации для академических поисковых систем, таких как Google Scholar и CiteSeer . [22] Основной принцип Academic Search Engine Optimization ( ASEO) – это то же самое, что и традиционная оптимизация поисковой системы в Интернете. В дополнение к другим факторам Google учитывает плотность ключевых слови – вместо (гипер) ссылок – упоминания в других научных публикациях. Область академической поисковой оптимизации по-прежнему молода и в настоящее время по-разному оценивается академическим сообществом. Некоторые считают его безнравственным, чтобы подгонять научные статьи к академическим поисковым системам, в то время как другие считают необходимым, чтобы поисковые системы индексировали и взвешивали содержимое PDF-файлов лучше и более справедливо.

Этические правила

Методы, которые несут релевантные веб-сайты на страницах результатов поисковой системы, известны как рассылка поисковой системы ; они нарушают правила, которые поисковые системы настраивают для защиты от манипулирования результатами поиска. Таким образом, можно настроить автоматические переадресации, содержащие текстовые страницы, специально созданные для поисковых систем. Однако этот метод работы с так называемыми мостовыми страницами противоречит рекомендациям большинства поисковых систем. Случаи, выявленные операторами поисковых систем, часто приводят к запрету на странице, о которой идет речь, т.е. час постраничные целевые страницы исключаются из индекса поиска.

Таким образом, в начале 2006 года BMW должен был принять в краткосрочной перспективе, что интернет-предложение автомобильной компании было полностью удалено из Google , потому что была создана серия автоматически пересылаемых страниц моста .  После того, как BMW оскорбления страницы были удалены bmw.de был включен в индекс Google.

Этическая поисковая оптимизация (у белых есть поисковая оптимизация ) позволяет избежать спама. Он избавляется от нежелательных практик, таких как использование страниц моста или фермы ссылок, и следует директивам отдельных поисковых систем. Это позволяет избежать риска исключения или понижения на страницах результатов поиска. В отличие от этической оптимизации «белой шляпы» оптимизация с использованием нежелательных методов со стороны поисковых систем называется оптимизацией «черной шляпы».

ссылка пирамиды

В области поисковой оптимизации термин «пирамида ссылок» все чаще используется с конца 2000 года. Пирамида ссылок пытается имитировать естественную структуру обратной линии . С этой целью были проанализированы и рассмотрены обратные ссылки нескольких успешных предпринимателей. Было приятно видеть, что так называемый фонд состоит из простых ссылок, а число уменьшается, тем выше ссылки. Это привело к изображению пирамиды, из которой была получена пирамида словесной связи. Для работы с пирамидой ссылок все меньше и меньше ссылок используются снизу вверх. Это уже связано с тем, что для достижения более качественных связей становится все труднее.

Технические ограничения

Чисто графически ориентированные, с рисунками, изображениями и графически встроенными текстами, разработанными страницами, такими как z. Поскольку программирование во Flash позволяет, поисковым системам сложно оценить текстовый код. С 2008 года Adobe предоставила компаниям Google и Yahoo технологию доступа к ранее недостижимому контенту во Flash-файлах.  Google объясняет:

«Googlebot может индексировать почти любые текстовые пользователи, которые видят, когда они взаимодействуют со SWF-файлами Flash на вашем сайте. На основе этих текстов робот Googlebot может создавать фрагменты или отвечать на запросы, запрошенные в Поиске Google. Кроме того, Googlebot может обнаруживать URL-адреса в SWF-файлах, например, ссылки на другие страницы вашего сайта и следовать им ».

Однако таким образом не записываются ни динамически загруженные тексты, ни ссылки на тексты или разные подстраницы внутри Flash. Поэтому программирование веб-сайта исключительно во Flash не рекомендуется с точки зрения оптимизации поисковой системы.

Leave a comment

Confirm that you are not a bot - select a man with raised hand: