Проблематика SEO: используем искусственный интеллект

Модель поиска должна иметь возможность «самокалибровки». Другими словами, он должен иметь возможность оценить свои алгоритмы и их относительную долю и сравнить синтетические данные с общедоступной поисковой системой, чтобы выяснить наиболее точный механизм поиска, позволяющий моделировать любую среду.

Однако вычисление анализа тысяч параметров в попытке найти их наилучшее сочетание является астрономически дорогим и очень сложным.

Учитывая вышеизложенное, есть ли способ создать самонастраивающуюся модель поиска? Похоже, последнее средство, которое может нам помочь, — это… птицы. Да, вы не ослышались, речь идет о пернатом типе!

Оптимизация с использованием диаграммы оптимизации роя частиц (PSO)

Довольно часто у самых огромных проблем могут быть самые неожиданные решения. Например, рассмотрим оптимизацию роя частиц — метод искусственного интеллекта, впервые описанный в 1995 году и основанный на социально-психологическом поведенческом паттерне толпы. Первоначально методика моделировалась на основе концепции поведения птиц в стае.

На самом деле ни один из существующих алгоритмов, основанных на правилах, не может быть использован для нахождения хотя бы приближенного решения наиболее сложных численных задач максимизации или минимизации. Однако, используя такую ​​относительно простую модель, как стая птиц, можно сразу увидеть ответ. Все мы слышали ужасающие прогнозы о том, что искусственный интеллект однажды захватит мир. Однако в данном конкретном случае это наш самый ценный союзник.

Ученые работали над проектированием и реализацией множества проектов, посвященных роевому интеллекту. Проект «Миллибот», ранее известный как «Киберскаут», запущенный в феврале 1998 года, представляет собой программное обеспечение, против которого подали в суд ВМС США. Cyberscout по своей сути представлял собой рой крошечных роботов, которые могли вторгнуться в здание, занимая все его пространство. Способность этих высокотехнологичных крох общаться и обмениваться информацией позволяла «рою» роботов действовать как единое целое, что превращало трудоемкую задачу построения расследования в иноходную прогулку по коридору (большинство роботов были способны только пройти пару метров).

Почему это работает?

Что действительно хорошо в PSO, так это то, что этот метод не делает предположений относительно проблемы, которую вы пытаетесь решить. На самом деле это что-то среднее между алгоритмом, основанным на правилах, который пытается найти решение, и нейронными сетями искусственного интеллекта, которые нацелены на исследование проблем. Следовательно, этот алгоритм представляет собой компромисс между исследованием и эксплуататорским поведением.

Не будучи ориентированным на исследования по своей природе, этот алгоритм подхода к оптимизации непременно превратился бы в то, что в статистике называют «локальным максимумом» (решение, которое может показаться оптимальным, хотя на самом деле таковым не является).

Вы должны начать с серии «роев» или догадок. Например, в поисковой модели это могут быть различные весовые коэффициенты алгоритмов подсчета очков. Если, например, у вас есть 7 различных точек входа, вы должны начать с не менее чем 7 предположений относительно таких весов.

Идея PSO заключается в том, что каждое из этих предположений должно быть как можно дальше от других. Есть несколько методов, которые вы можете использовать, чтобы убедиться, что ваши начальные точки оптимальны, не вдаваясь в 7-мерные вычисления.

После этого вы начнете развивать свои догадки. Вы будете делать это, имитируя поведение птиц в стае, когда рядом есть еда. Одно из случайных предположений (стад) будет ближе других, и каждое последующее предположение будет изменено на основе общих данных.

Визуализация ниже наглядно демонстрирует этот процесс.

Реализация

К счастью, существует множество возможностей для реализации этого метода на различных языках программирования. И самое лучшее в оптимизации роя частиц то, что ее можно легко применить на практике! У методики минимальные параметры настройки (что является признаком сильного алгоритма) и очень короткий список ограничений.

В зависимости от вашей задачи реализация идеи может быть найдена в локальном минимуме (не оптимальном решении). Вы можете легко исправить это, введя топологию соседства, которая быстро ограничит цикл обратной связи только лучшими соседними предположениями.

Ваша основная работа будет заключаться в разработке «функции адаптивности» или алгоритма ранжирования, который вы будете использовать для определения уровня близости к целевой корреляции. В нашем случае, связанном с SEO, нам придется сопоставлять данные с каким-то предопределенным объектом, например результатами поиска Google или любой другой поисковой системы.

Когда у вас есть работающая система подсчета очков, ваш алгоритм PSO будет пытаться максимизировать результаты с помощью триллионов потенциальных комбинаций. Система Soring может быть такой же простой, как выполнение корреляции Пирсона между вашей моделью поиска и фактическими результатами поиска пользователей Интернета. Или это может быть так сложно, как одновременная активация этих корреляций и оценка оценки для каждого конкретного сценария.

Корреляция по отношению к «черному ящику»

Многие SEO-оптимизаторы в настоящее время пытаются провести корреляцию с «черным ящиком» Google. Естественно, эти условия имеют некоторые основания для них, однако они в основном бесполезны. И вот почему.

Во-первых, корреляция не всегда подразумевает причинно-следственную связь. Особенно, когда точки входа в ваш черный ящик расположены не слишком близко к точкам выхода. Рассмотрим следующий пример, где точки входа очень близки к относительным точкам выхода — бизнес по перевозке мороженого. Люди покупают больше мороженого, когда на улице жарко. Легко заметить, что точка входа (температура воздуха) тесно связана с точкой выхода (мороженое).

К сожалению, большинство SEO-оптимизаторов не используют статическую близость между своими оптимизациями (входами) и соответствующими результатами поиска (выходами).

Более того, их записи или оптимизации часто ставят перед компонентами обхода в поисковой системе. Собственно, типичная оптимизация должна включать 4 уровня: обход контента, индексация, скоринг и, наконец, запрос в реальном времени. Попытка соотнести таким образом не может привести ни к чему, кроме напрасных ожиданий.

На самом деле Google обеспечивает значительный коэффициент шума, точно так же, как правительство США создает шум вокруг своей системы GPS, так что гражданские лица не могут получать такие же точные данные, как военные. Это называется уровнем запроса в реальном времени. И этот этап становится существенным сдерживающим фактором для тактики SEO-корреляции.

В качестве примера можно взглянуть на садовый шланг. На уровне оценки поисковой системы вы можете увидеть взгляд компании на то, что происходит. Вода, вытекающая из садового шланга, организована и предсказуема, т. е. вы можете изменить положение шланга и предсказать результирующее изменение движения потока воды (результаты поиска).

В нашем случае уровень запросов распределяет эту воду (результаты поиска) на миллионы капель (вариаций результатов поиска) в зависимости от пользователя. Большинство меняющихся алгоритмов сегодня появляются на уровне запроса, чтобы предоставить большее количество вариантов результатов поиска для того же количества пользователей. Например, взгляните на алгоритм Google Hummingbird. Сдвиги на уровне запроса позволяют поисковым системам создавать больше торговых площадок для своих объявлений PPC.

Уровень запросов — это взгляд пользователей на происходящее, а не компании. Следовательно, корреляции, созданные таким образом, редко будут иметь причинно-следственные связи. При этом при условии, что у вас есть только один инструмент для поиска и моделирования данных. В реальности SEO-оптимизаторы используют набор входных данных, что увеличивает шумы и снижает вероятность нахождения причинно-следственных связей.

Поиск причинно-следственных связей в SEO

Для достижения корреляции при работе с поисковой моделью необходимо максимально сжать входы и выходы. Входные или переменные данные должны располагаться на уровне оценки модели поисковой системы или выше. Как это сделать? Нам нужно разделить черный ящик поисковой системы на ключевые компоненты, а затем построить модель поиска с нуля.

Оптимизация выходов еще более усложняется из-за огромных шумов, которые появляются от уровня запросов в реальном времени, что создает миллионы вариантов для каждого пользователя. Мы должны были бы как минимум создать такие записи для нашей модели поисковой системы, которые располагались бы перед обычным слоем с вариациями запросов. Это будет гарантировать устойчивость хотя бы одной из сравниваемых сторон.

Построив модель поисковой системы с нуля, мы сможем отображать результаты поиска не на уровне запросов, а непосредственно на уровне скоринга. Это дает нам более стабильные и надежные отношения между входами и выходами, которые мы пытаемся сопоставить. В таком случае эти устойчивые и иллюстративные отношения между выходами и входами позволят корреляции отразить причинно-следственную связь. Концентрируясь на одной записи, мы можем получить прямую обратную связь с результатами, которые мы видим. Позже мы можем провести классический SEO-анализ, чтобы определить наиболее выгодный вариант оптимизации для существующей модели поисковой системы.

Выводы

Нельзя не удивляться тому, как что-то простое, что происходит в дикой природе, приводит к научным открытиям или технологическим прорывам. Имея модель поисковой системы, позволяющую открыто связывать скоринговые выходы с некастомизированными результатами поиска, мы можем связать корреляцию с причинно-следственной связью.

Добавьте к этому оптимизацию роя частиц, и вы станете свидетелем технологического прорыва — самокалибрующейся модели поиска.