Тут что-то было в правилах форума насчет публикации ссылок со всякими refid, или мне показалось?
Если сайт действительно выдает 404, ему нетрудно помочь уйти. Вы же вроде не новичок, должны знать про removeurl.
А насчет вторника - не надо. Для одних сайтов - черный, значит для других белый, это уже сто раз обсудили.
Если при этом они не находят ваш сайт, значит кто-то где-то что-то недоработал. И это не асессоры ;). Увы, это жизнь.
... и имеет правительственные награды... Шутка.
Avaks, а по существу, какая по-вашему, страница вашего сайта должна быть впереди по слову "лесопилка"? Какие у вас аргументы?
Например, на первой странице этого слова нет.
В каталоге Яндекса конкурентов пока ни одного. Avaks, а какой сайт-то надо двигать по слову "лесопилка", сайт лесопилки Урюпинского района?
Почему бы и нет, в Яндексе любят Урюпинск :). Если бы не опечатка в названии топика, глядишь, и эта страница имела бы шансы по слову "лесопилка" :)
Смотрю полузаброшенный сайт (2-3 штуки). Мелкие изменения вносятся раз в квартал наверное. С появлением нового проекта поменял ссылки, жду. Фигвам. Посмотрел по логам, робот I не заходил уже несколько месяцев на главную страницу. Выложил robots.txt с запретом Яндекса и в removeurl.
Если не ошибаюсь, можно уложиться и быстрее. robots.txt уберу где-нибудь через недельку, когда его возьмет робот I. И после очередного апдейта добавлю. В сумме надеюсь на 2 недели.
sherif, не примазывайтесь. Сравните себя с Остапом Бендером что ли. Но он обманывал народ хотя бы с юмором, находил недалеких людей, которые платили за воздух и пустые прожекты. Уверен, что на этом форуме таких очень мало.
В гугле - да. Первые 101 кб проиндексятся. В Яндексе 500-600 кб точно индексятся. А оч. большой - это сколько?
Я тоже так думал.
http://www.yandex.ru/yandsearch?serverurl=top100.rambler.ru/cgi
одну из страниц туда добавил я через addurl неделю назад, и видимо был не одинок. Уже два апдейта она там висит, допускаю, что робот I еще не успел зайти за robots.txt. Тем не менее, в http://top100.rambler.ru/robots.txt - эти адреса запрещены.
Что я не так делал? Хотелось бы разобраться. А если робот D не считается с robots.txt, то на это наверное есть причина? Ведь есть опасность, что все желающие в погоне за увеличением ссылок на свои сайты начнут раз в неделю совать их в addurl в надежде на эти ссылки. Если это не работает, то не нужно будет и лишний раз дергать addurl.
Harconnen, посмотрите какой текст в ссылках на www.wolff.ru, сколько их, какие сайты ссылаются. Сравните с вашим и все поймете.
Ну и каталог Яндекса конечно.