Если это ваш первый визит, рекомендуем почитать справку по форуму. Для размещения своих сообщений необходимо зарегистрироваться. Для просмотра сообщений выберите раздел. |
![]() |
||
![]() |
Что касается web-а... WebMaster-а Воронежа - объединяйтесь! |
![]() |
|
Опции темы
![]() |
![]() |
#1 |
Memory test: failed
|
Теоретические измышления v1: глушим поисковики
Все опубликованное в данном документе носит исключительно теоретический характер (размышления после 2+En бутылок пива) и не является руководством к действию. Надеюсь на Вашу лояльность и честность. Во избежание и в неповторение...
Все исследования можно условно разделить на 2 группы - исследования того, чего еще, грубо говоря, не было (вечный двигатель, нанокомпьютеры и т.д.) и исследования того, что уже было/есть, но никто так толком и не понял, что это (история, теоретическая физика и т.д.). Изучение явлений понятых и разложенных по полочкам (изучение языка программирования, технологии пивоварения и т.д.) исследованием в чистом виде не назовешь, ибо это не приносит человечеству ничего нового. Благодаря стараниям создателей ведущих поисковых систем (не в вину им сказано) попытки понять принципы действия поисковых роботов (а, значит, и научиться лучше с ними взаимодействовать) превращаются в исследования второго рода. Отсутствие нормального и внятного описания основных принципов порождает как море слухов, так и ряд экспериментов (которые, при недостаточном опыте/добросовестности испытателя) могут пагубно сказаться на работоспособности поисковиков. Один из таких экспериментов я решил провести «заочно», описав ниже основной принцип возможной атаки на поисковую систему. Надеюсь услышать конструктивную критику и разнос всего в пух и прах… Итак, имеется поисковый робот и бесплатный хостинг с поддержкой PHP (ASP,Perl - на выбор) в маленькой южноафриканской республике. На хостинге регистрируется N доменов, на каждом из которых размещается M копий скрипта, который выдает произвольный текст с R ссылками на другие копии с произвольными комбинациями параметров/ с динамической подменой пути. Все это отдается на съедение поисковому роботу. Теоретически, через некоторое время список страниц «к индексации» будет вдоволь забит ссылками на данные страницы. Ессно, это будет иметь смысл только при достаточно больших значениях M, N и R и при использовании нескольких хостингов. Но если подойти к вопросу творчески и автоматизировать часть процесса, то за пару дней можно соорудить достаточно объемную паутинку. Очевидно, что Яндекс или Google таким примитивным методом не тормознешь, но вот со слабенькими поисковыми системами может получиться очччень интересная картина. Естественно, метод примитивен (да и не стал бы я вывешивать более подробные и продуманные инструкции), но, надеюсь, мысль понятна. Хотел бы услышать мысли уважаемой публики по поводу вероятных последствий и возможностей их предотвращения. |
![]() |
![]() |
![]() |
#2 |
Gross
|
DMakeev Выходит, по моим финансовым подсчетам, не меньше нескольких миллионов долларов, чтобы сделать пакость. Ни один Осама не раскошелится...
|
![]() |
![]() |
![]() |
#5 |
Memory test: failed
|
Kronos, я не собираюсь на этом зарабатывать, равно как и не собираюсь применять данное на практике (иначе не вываливал бы сюда). А по поводу "умнеют"... мы ж тоже глупее не станвимся
![]() zic, это одобрение или насмешка? ![]() |
![]() |
![]() |