Принцип человечности

Поисковые роботы становятся всё умнее и умнее. Примерно пол года назад я думал, что самый качественный отбор сайтов может сделать только человек, но сейчас уже так не думаю.

labimg_460_345_1_webbots

Уже могу представить себе этот гигантский скрипт, который может проводить анализ по сотням и даже тысячам признакам. И главное ведь даже не только провести анализ всего этого барахла, а сравнить с другими. И не сложно догадаться, что для всего этого требуется какая количественная оценка.

В последнее время в мою голову лезут абсолютно бредовые мысли и что с ними делать даже не знаю. Вот решил поделиться ими с вами, может меня ктонибудь поймёт и поможет разобраться.

Машиной расчитываются точные числа, стоит только задать формулу для подсчёта и всё. Но вот если в дело вмешивается человек, то у формулы появляется некая рандомная часть. Частей может быть и больше одной и чем их больше, тем не предсказуемее становится наш окончательный результат. Даже если исходные данные не будут изменяться, то мы всё равно будем получать на выходе разные числа.

У вас может возникнуть ко мне резонный вопрос: «Какое отношение всё выше написанное имеет к так называемому принципу человечности?». Всё и сложно и просто одновременно. Не буду вдаваться в подробности, а просто попытаюсь объяснить суть принципа.

Уже не первый раз натыкался на фразу, вроде: «Переоптимизированные сайты понижаются в выдаче…». Хоть я и не замечал сам такой сильной тенденции, но я верю людям и даже могу представить себе почему это происходит.

А вообще, что значит «переоптимизированный»? Говоря простым языкомэто когда на странице или на всём сайте нет не единого недочёта с точки зрения поисковой оптимизации. Получается, что это некий «идеальный ресурс». И это странно.

Всё дело в том, что человеку свойственно совершать ошибки и если на какойнибудь странице нет ошибок, то это может вызвать подозрения: «А на самом деле ли эту статью (или этот сайт) создал человек

Проведу простую аналогию для того чтобы всё стало ясно.

Допустим у нас есть 2 сайта с одинаковым шаблоном но они по разному создавались. Один сайтполностью человеческие творение, в которм каждый символ каждой статьи был написан им самим и всю оптимизацию он проводил сам. И другой сайт, который был создан так же человеком, но оптимизировался при помощи некого чудоскрипта.

Наш чудоскрипт определяет семантическое ядро не только всего сайта, а каждой отдельной страницы, проводит её анализ и на его основе делает выделения нужных слов и фраз, ну и соответственно расставляет там где надо ссылки на другие статьи (ссылается сам на себя), дописывает разные описания (meta, alt, title) везде где только можно. И делает некоторые перестановки абзацев, предложений или даже слов. В общем этот скрипт создан в соответствии с поисковыми алгоритмами и приводит страницы в идеальное состояние для поискового робота.

Как не сложно догадаться, в первом случае сайт будет менее качественно оптимизирован, чем во втором. Всё дело как раз в той рандомной составляющей, которую вносит человек и от неё никуда не деться.

Что дальше?) Допустим у поисковой системы есть некий алгоритм, который даёт количественную оценку (пусть логорифмическую) каждой странице каждого сайта и на основе этой оценки ранжирует этот сайт в поисковой выдаче по определённым запросам. Пусть оценка будет лежать в пределах от 0 до 10, где 0 это полное не соответствие страницы с запросом, а 10 это «идеал».

Как вы знаете, мудрёные поисковые алгоритмы не могут сделать добротный морфологический анализ текста. А когда в создание и редактирование контента вмешивается некий скриптоптимизатор (который знает, что лучше для ПС), то тут обычно не обходится без казусов, которые вроде бы и читабельны и написаны правильно (с точки зрения морфологии), но абсолютно не логичны.

Как не сложно догадаться статья, которая оптимизировалась при помощи скрипта будет выше в выдаче, а та что создавалась человеком будет ниже.

И тут приходим к двум интересным замечаниям. Вопервых, на сайт, который создавался полностью вручную было потрачено значительно больше времени и сил, что делает оценку сайта поисковым роботом как минимум не справедливой. Вовтроых, далеко не факт, что сайт оптимизированный скриптом с более качественным контентом с точки зрения логики и морфологии.

Вообще поисковые системы (как я себе это представляю) делают оценку контента на основе какихто заранее заданных паттернов, которые подходят во многих случаях, но не во всех. Самих паттернов может быть много и для разных тематик должны быть разными. Тут встаёт вопрос об автоматическом определении тематики ресурса. Но и тут тоже, к примеру, может случиться так, что в алгоритме не будет прописана какаянибудь очень редкая тематика и определённая группа сайтов попадёт в другую тему и поэтому будет понижаться и повышаться в выдаче поисковиков не по тем запросам. Следовательно этих тематик должно быть не очень много и скрипт должен определять их со 100%-ной точностью.

Всё бы определялось отлично, если бы люди создавали ресурсы с заранее заданными паттернами в поисковых системах, либо если бы у поискового алгоритма было прописано очень много условий и паттернов, которые бы максимально точно определяли тематику ресурса.

Вот поэтому, если ресурс «идеален» с точки поискового робото, то это как минимум наталкивает на мысль о том что он был создан для поискового робота. Следтствием является то, что он занимает 1ое место по нужным запросам в выдаче. Что ставит под сомнение качество и даже иногда безопасность этого ресурса для пользователей. Ведь, сами подумайте, обычно такие сайты создают для обеспечения трафика, который не известно как монетизируется (иногда даже не всегда гуманно). Но если сайт сделан для людей, то этот трафик должен либо не монетизироваться вообще, либо очень мягко и не новязчиво. На таких сайтах обычно не гоянтся за конвертом трафика, за высокм CTR и вообще за деньгами.

Следовательно эти люди (создатели СДЛа) получают за свою работу мало денег и особой мотивации оптимизировать страницы/статьи у них нет, но они явно более полезны для посетителей, чем те, что создавались для поискового робота.

И вот поэтму нужны очень сложные алгоритмы, которые будут делать очень сложные вещи. И по сути это надо каждый сайт посетить, чтобы паттернов для точного анализа всех ресурсов было достаточно.

И поэтому максимально точное определение и анализ ресурсов возможен тогда, когда все всё делают по заранее подготовленным шаблонам или когда всё это дело обрабатывается скриптом с сотнями и тысячами всевозможными условиями. Сложно, но можно)

P.S.: Изначально хотел назвать статью «Человеческий фактор», но почемуто «Принцип человечности» понравился больше.

Баннер 600x90

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Если Вы не бот решите задачку? *