Как вам известно оптимизация сайта довольно сложное занятие, ведь многие поисковые системы, при ранжировании страниц в своей выдаче, опираются на ключевые слова и их плотность в том или ином тексте страницы. В Гугле же все немного по-другому, он ранжирует страницы в соответствии с ссылками, которые на них идут.
Ссылки эти могут быть как внешние, так и созданные в результате перелинковки. Дабы выделить наиболее важные страницы того или иного сайта, Гугл использует такой параметр, как Page Rank или PR. Данный параметр столь сложен, что охватывает собой порядка полумиллиарда (!) различных переменных.
Для PR, грубо говоря, важно, что думают о данном сайте остальные. Так что он подсчитывает количество голосов за каждую конкретную страницы, поданных в виде внешних ссылок. Поисковику очень важен авторитетность сайтов и оптимизированность страниц, с которых идут ссылки, и если сайт более авторитетен, то он как бы поручается за тот, на который ссылается, а значит повышает его авторитет. Кроме того, робок крайне внимательно изучает содержимое как ссылающейся страницы, так и страницы, принимающей ссылку.
Всего рейтинг PR имеет 10 уровней, и страницы с PR10 пользуются наибольшим авторитетом. Так что PR рассчитывается не для всего сайта целиком, а отдельно для каждой страницы. Концепция расчета PR состоит в том, что на каждую страницу приходится некоторое количество ссылающихся страниц, каждая из которых также имеет свой Page Rank.
К примеру, на страницу А ссылается страница В, и чем выше рейтинг этой самой В, тем больше она передаст авторитета странице А. В идеале, на страницу должно быть как можно больше внешних авторитетных ссылок, при этом она сама должна ссылаться на другие страницы как можно меньше.
Если попытаться выразить метод подсчета PR при помощи математических формул, то мы получим PR(А)= (1+р) +р (PR(I1)/C(I1)+ … + PR(In)/c(In)). То есть PR страницы А представляет собой сумму PR ссылающихся на нее страниц i1…In, при соотношении к количеству ссылок на эти страницы.
Это говорит нам о том, что оптимизация сайта и PR представляет собой ни что иное, как вероятность. Вероятность того, что пользователь, переходя по внешним ссылкам, попадет именно на рассматриваемую страницу. Естественно, что для того, чтобы данное математическое уравнение работало, в него надо ввести ограниченное значение. Так как пользователь не моет вечно сидеть в интернете. И для этого создатели PR решили воспользоваться коэффициентом затухания.
К примеру, если бы каждым пользователем просматривалось только по четыре страницы, то параметр PR мог бы быть рассчитан со 100% вероятностью для всех рассматриваемых страниц.
Чтобы было более понятно, возьмем 4 страницы, к примеру А, В, С, и D. При этом, страницы В, С, и D ссылаются на А и при этом не имеют других ссылок. То есть, грубо, PR страницы А можно подсчитать, как PR(А)=1/1+1/1+1/1=3. А теперь возьмем что-нибудь по сложнее. У нас будут те же страницы, но ссылки будут расположены следующим образом: А ссылается на страницы В и С, В при этом ссылается на А, страница С ссылается на все остальные, то есть А, В и D, ну а D ссылается на страницу В. Как же рассчитать PR всех этих страниц? Давайте попробуем.
PR(А) = 1/1 +1/3 = 1.33
PR (В) = страница А 1/2 + страница D 1/1 + страница С 1/3 = 1.83
PR (С) = страница А ? = 0.5
PR (D) = страница С 1/3 = 0.33
Вышеприведенные расчеты производились с тем, что сумма значений PR всех четырех страниц равна 1, а если вместо этого числа подставить полученный PR для каждой страницы, то мы получим следующее:
PR (В) = 1.33/2 (страниц А) + 0.5/3 (страница С) + 0.33/1 (страница D) = 1.62
Из этого следует, что подобные вычисления по оптимизации сайта можно производить по кругу, так как при изменении значений, PR для каждой страницы в связке будет меняться последовательно. Так что Ларри Пейдж и Сергей Брин ввели интеративный метод вычисления – метод приближения, ступенчато. Это означает, что вычисляя следующего PR, к примеру во время апдейта, система принимает в расчет предыдущие значения. Так что, по словам разработчиков, поисковику достаточно всего сотни итерационных вычислений для того, чтобы вычислить значение PR для миллиардов страниц, закэшированных до этого.
Но какой же коэффициент затухания? Об этом создатели Гугла предпочитают умалчивать, что ж, это их право. Хотя предполагается, что значение это меньше единицы, в этом случае, PR всех страниц также будет меньше единицы. В этом случае, мы имеем дело с малыми дробными числами, которым Гугл присваивает значение от 1 до 10. Увеличение PR происходит по логарифмической шкале, то есть, чем выше PR, тем сложнее его увеличивать. К примеру, перепрыгнуть с 0 сразу до 3 куда как проще, чем подняться с 5 до 6. Вот именно поэтому, так много сайтов в интернете имеют PR именно 5, выше подниматься уже очень сложно. Хотя, если правильно закупать ссылки на той же Sape, то можно достигнуть и более высоких значений.
|