!!!!!!!!!!!!Кстати тоже идея!!!!!!!!!!!!!
Искренне благодарен.
Моя ошибка заключалась в другом - не те запросы выбрал. На самом деле надо было бить на запросы чип сигаретте(с), дисконт сигаретте(с), ну и на сигаретте(с), и еще на один, но на какой - не скажу. Вот мусорить буду американский инет - буду придерживаться этой стратегии.
Все равно спасибо за участие.
Вычисляешь свой уровень интеллекта? Кстати их уже далеко не ноль (хвала Всевышнему - он не оставит правильных парней). А с гуглянским я только начал борьбу и лично тебя буду держать в курсе всех её перепетий. С другими дело идет веселее. Это тебя так должно порадовать на склоне лет! Есть уже достижения - Yahoo (Bond Chesterfield cigarettes) 2 место, там же (Bond Camel cigarettes) - 7 место. Сейчас провел перегруппировку личного состава, по-новому оценил свои боевые порядки, провел рекогносцировку местности, изменил кое-что, кое-что добавил, кое-что убавил. Завтра момент истины.
Искренне Ваш uncle Buddah Avalokiteshvara
Честно говоря, не знаю что такое Юмакс, да и не очень интересно, хотя может и толковая это вещь. Мне еще в 2 раза надо увеличить кол-во целевых посетителей и я начинаю торговлю. Знаю, эта новость согреет тебя в холодный зимний вечер...
Да - в американских айпишниках его нет. надо будет замусорить американскую зону и очень конкретно. как минимум месяц уйдет.
Я уже там есть😂 Правда не в нужной зоне🙅
Сам ты деревянный!!!
Сайт заточенный под среднестатистическое американское животное. Именно такими они их и представляют себе, когда идут делать покупки по инету. Они лет 30 делали покупки оп каталогам, присылаемым по почте, потом появился инет и они теперь хотят привычных форм изложения материала, товаров и так далее. Вот единственное с цветом прогадал. Светло-персиковые, теплые тона, как оказалось, более распологают американцев к покупкам, чем холодные.
Да не занимайся ерундистикой.
Я делал 98 чужих статей на одном ресурсе - смотрел чо выйдет, а вышло следующее: в дейтацентрах они не появились. Сначало думал, что из-за того, что на них переходили по скрытой ссылке с морды, потом сделал ссылку "нормальную" - все чин-чинарем. Никакого эффекта. Тут есть другая идея: иногда используются сайты с одним именем, но с разными айпишниками и расположенные на разных машинах (или хостингах). Что если сделать robots.txt, который при появлении гуглянского бота переформатируется так, что включит в себя УРЛ-пути на другие документы других ресурсов, дав понять боту, что тот имеет дело с распределенным на нескольких узлах сайтом? В итоге продетектит и тебя и те документы, все приплюсует ну и так далее по списку... А при уходе гуглянского бота файл переформатируется обратно. Я могу написать ПХПшный скрипт для этого. От тебя - сайт, на котором можно все это проверить. Если заинтересован - raskruten@yahoo.com. Обманешь - я сам твой сайт взломаю. Не обманешь - или попадешь в песочницу или станешь первопроходцем в деле гугловодства. Хотя, не исключено, что ничего не произойдет.
Безусловно, этот файл составляла банда идиотов. Сколько байды вбили для того, чтобы бот обработал
User-agent: *
Disallow: /
Спасибо, други!!!
Ошибку понял только с Вашей помощью!!!
На чем реализована штука? на Перле чтоли? Или написал полноценную на С или С++ ? Кстати, кто читал Kevin Hemenway, Tara Clishain "Spidering Hacks"