Langly

Рейтинг
47
Регистрация
09.12.2008
narzanka:
Кто-то им на кипер пробовал писать, отвечают?

У них там "Красная жара" от претензий.

Никто не ответит никому и ничего 100%

Megakaban:
Ну и черт с ними! Лишь бы заработали, хотя бы на сутки. А мы и сами все поймем, что нам просто сделали хорошую мину при плохой игре.

Мне уже пох...

заливаю бэкапы недельной давности на новый хост. Объем большой медленно движется...

Заработает - скачаю свежий бэкап. Не заработает - ну и хрен с ними со всеми.

В любом разе на макхост или как там он по-новому называться будет - уже не вернусь.

Да иск отправлю на возврат уплаченных средств на кипер.

alliance U.S.S.R.:
...Это же надо писать такой бред: "Отключение было инициировано третьей стороной ФГУП РНИИ КП, с которой у «Макхоста» нет никаких хозяйственных взаимоотношений." Т.е. по их словам ДЦ исключительно из волонтёрских побуждений, нахаляву размещали у себя их сервера и предоставляли все необходимые услуги для поддержания функций хостинга...

...Знаете в голову приходит только одна фраза: "Чувствую, что наё...ют, но не пойму где" )))

Да нет, где то мелькало, что по договору переуступки прав требования или исполнения передали ... итд итп.

А макхост судя по всему этой переуступки не признает, поэтому орут что третьей стороной, с которой мы дескать дел не имели...

Мое глубокое ИМХО - виноват макхост во всем. Он с нами отношения имеет, и нефиг кивать куда бы то ни было. Разруливать должен макхост. И он же должен был заботиться о сохранности и доступности данных в пользовательских аккаунтах. И он должен нести ответственность за несохранность оных и невозможность предоставить к ним доступ пользователей.

hihigh:
Те кто смотрит seopult, пишите сюда пожалуйста то, о чем там говорят. Хотя бы кратко и основные данные

Да, присоединяюсь к просьбе

Подскажите пожалуйста, как можно подключиться по ftp если был на вирт. хостинге?

RED FOX:
Langly, контент уникальный? Ссылку на сайт почему не даете?

Контент - юзеры постят. Конечно постят на разные сайты одни и те же новости.

Но я могу целую кучу сайтов показать работающих по тому же принципу у которых все ок с посещалкой.

Если бы большинство подобных сайтов просело... но большинство проседать и не думает...

Да ссылку что светить... могу приватно отправить.

Я просто не знаю с чем связано. Началось все со взлома сайта.

Вроде вычистил всю дрянь...

Потом появлялся код несколько раз. Все вычищал, двиг обновлял. Позакрывал сейчас фтп на свой айпи.

в общем хз...

Трафа с яндекса было на треть примерно больше.

Потом сравнялся с гуглом, то есть понизился. Теперь идет понижение и яши и гугла...

Нет ни порнухи, ни рекламы казино ни прочей ерунды.

Ссылки сапе стоят, но их штук 300 всего, а страниц (новостей) более 17 000

в яндексе показывает страниц в индексе 66к

Информация о сайте

ТИЦ 30

Страниц в поиске 66132

Внешних ссылок на страницы сайта 5177

Время последнего посещения сайта роботом 11.01.2010

Извиняюсь, но ерунда это все.

Какие дубли страниц создает облако тегов?

Облако тегов собирает страницу из кратких новостей по определенному критерию. То есть собранная таким макаром страница, в том самом виде, более нигде не встречается на сайте.

Если любую из этих новостей щелкнуть, то откроется полная новость, у которой свой неизменный адрес, например http://сайт.ru/68547-oar-rain-or-shine-2010.html

Никаких дублей.

Fi9hter:
Смотря опять же по уникальности, если вариантов очень много разнообразных будет, то делайте динамику это с одной стороны хорошо, бот яши каждый день на сайте тусуется. Все зависит от того насколько вы уникальности добьетесь своим количеством, как статей, так и размножения.

Ну вот смотрите.

Тут дело даже не в уникальности, потому как по уникальности оба варианта будут равны, при равных исходных данных (статьях)

Тут вопрос - лучше чтобы каждый раз поисковик видел новый текст, или чтобы он видел один и тот же.

Fi9hter:
... это с одной стороны хорошо, бот яши каждый день на сайте тусуется...

Бот будет воспринимать это как обновления страниц или наоборот сочтет попыткой ввести в заблуждение ПС

(Это просто вопрос касаемо мнения, и логики а не конкретно поведения яши. ...знал бы прикуп, жил бы в сочи, одним словом)

Fi9hter:
При таком подходе эти 30к страниц могут все равно вылететь, не забывайте, потому что вы генерируете их на основе 1000 предложений. И то они размноженные, что только еще больше увеличит дубли. Риск большой, только если вам ради эксперимента или на ГС.

Я немного изначально неправильно выразился.

Сейчас вилка - направо пойти иль налево.

Допустим я закажу 20 статей, размножу и поставлю статично на каждую страницу по варианту.

Второй - динамичный вариант - тоже самое. Я спокойно смогу размножить каждую статью, но не целиком, а по предложению. И получится рандомный вывод статьи, одной из 20. А затем при выводе уже выбранной статьи, она еще собирается по предложению. Каждое предложение - более 100 вариантов.

Понимаете.

ТО есть не надо рассматривать одну статью. Я их могу сделать что в первом варианте, что во втором столько - сколько надо. Точнее на сколько смогу потянуть.

Тут вопрос чисто прикладной.

Пусть 20 уникальных разных статей, размножены на 30 000 вариантов, допустим, и статично закреплены.

Или те же самые 20 статей, размножить по предложению, и собирать из предложений. вот она делема

PS То есть проблема не в том что одна единственная статья на 30 000 стр. Нет. Можно их сделать много, уникальных и каждую размножить, как для первого так и для второго варианта.

Вопрос - какой вариант лучше выбрать.

PPS А если еще точнее, то по большому счету какая разница - эта же собранная статья закрепленная статично. Или каждый раз будет собираться при загрузке.

Вопрос в мерцании этих предложений. Даже если принять, что повторов не будет предложений, то лучше статичную, или каждый раз поисковик будет видеть новый текст на странице.

Fi9hter:
Первый вариант хуже потому что будут дубли причем в больших количествах, одна и таже статья с отличиями в небольшом количестве предложений. Хотя у меня есть пример немного другого где тоже дубли есть и в индексе держится. Сайт в котором есть рандомно выдающийся кусок текста типа полезного совета, на 1800 страниц примерно столько же было и вариантов текста. Плюс 20 разных заголовков и превьюшек статей, 3 из которых рандомные всегда есть на каждой странице. Но из-за рандомности выдачи дубли в кэше яши по сути должны быть всегда, каждый раз на разных страницах и в разных количествах. По статьям особенно, их 20 штук на 1800 страниц. Вобщем к чему это я, показал пример что вроде и первый вариант живет, но второй нормально организованный и сохраненный раз и навсегда будет лучше. Но не забывайте что даже при статичном виде у вас будут целые предложения повторяться, как на это отреагирует Яша неизвестно, думаю в какой-то момент ему это надоест.

Да, лучше наверное будет рандомно оставить что-нить типа маленькой обзорной инструкции, а остальные целыми статьями. Блин но это проблематично будет... много страниц, тыс 30 примерно.

Это сколько места надо будет... гиг наверное займет... там еще картинки кэшируются, уже 700 мб есть... это без учета затрат на статьи. На такое количество сколько лучше написать уникальных, чтобы каждую потом размножить и воткнуть?

Чем больше - тем лучше, это понятно, но по минимуму? Штук 20 думаю пойдет. Только шаблоны надо делать с изменением структуры предложений, а только потом набивать синонимы. На 9слов шингл и 5% схожести.

Всего: 73