massu

Рейтинг
123
Регистрация
19.03.2008

У меня некоторые запросы устояли, а некоторые улетели с 1 на 10-15 страницы. в улетевших запросах большой процент входящих ссылок с точным вхождением анкора. Тоесть может в новом алгоритме у меня переспамлен анкор. У кого нибудь есть подобные наблюдения?

ArtPresident:
думаю причина все-таки в снятии ссылок. как проверяли проиндексированность ссылок? вот недавно например закупил ссылок под гугл в сапе (когда закупал проверял обязательное наличие страницы в кеше гугла), через 2 недели опять проверяю наличие некоторых страниц в кеше гугла через сапу- нет в кеше, проверяю эту же страницу но с www (или без www) страница с ссылкой есть в кеше гугла. еще как-то был момент: проверяю страницу в кеше гугла - нет, даю запрос site:мойсайт.ком - данная страница есть в индексе, аналогично находились страницы и по куску уникального текста, хотя в кеше вроде бы не было страницы

я вообще не снимаю ссылки такой давности (полгода), почти уверен, что причина в снятии ссылок, 20 дней - это приличный срок для гугли, чтобы подкорректировать влияние ссылочного (в вашем случае проседание позиций или фильтры за одновременное снятие такого большого количества ссылок)

Я тоже думаю что причина в этом, поэтому побаиваюсь снимать ссылки с других сайтов, проверял я програмкой http://www.yccy.ru/?yccyprog с www и без www

Kirik:
нет, даже в .com

Тогда не понятна вообще причина, на сайте был изменен дизай, но сам сайт вообще белый и пушистый нету вообще исходящих ссылок кроме счетчиков. Есть ли смысл писать через панель вебмастера? это может помочь?

Kirik:
нет, как они могут повредить если ПС о них не знает

Спасибо за ответ. Еще было размещенно новых 150-200 статей со ссылками на морду сайта, это может быть причиной? 150-200 это быстрый прирост?

malls:
:) Дык это же будет не PHP... :)


ТС - меня, например, приколол этот скрипт. Правда с одного теста могу сказать, что он дофига чего не понимает и похож скорее именно на простой парсер, но сама фичка прикольная.
Если Вы хотите все что описали (т.е. и формулы и юникода небось захотите) там далеко не на 67 потянет, а для Вас и это дорого...

Подумайте сами, самая сильная сторона Экселя как программы - его нескончаемые формулы в простом формате. Вы же "де-факто" хотите реализацию этого добра на PHP да еще и бесплатно...


T.R.O.N :) кстати предложение - может тебе пора уже API для пыхи к перлу сделать? Большая часть вопросов в пыхе сама снимется и ты ее не будешь так ругать! 😂

да я не спорю, на счет цены, если не найду альтернативу куплю за 67, просто у меня сейчас стоит скрипт за 3$ и все делает кроме формул, поэтому я в ценах конечно не ориентируюсь)

T.R.O.N:
Непонял. Если Вы пользуетесь несколько лет, то зачем Вы его ищите сейчас.
чтобы все работало корректно, как я понимаю, нужно под собой иметь Excel API. Судя по всему, то что Вы указали, - парсит просто файл, а не саму книгу эксела.

тот которым я пользуюсь игнорирует столбики полученные в результате формул, а мне надо чтобы и формулы понимал, а нужно это для того чтобы использовать не только для себя но и для посетителей, их лишний раз конвертировать файл в другой формат заставлять нереально

T.R.O.N:
massu,
Умеет ли такое пхп - не знаю. У перла есть модуль который все это умеет и очень прост в использовании Spreadsheet::ParseExcel.
Но есть вопрос, почему не экспортировать ексель в cvs, а потом парсить текст. Если хочется автоматизации, то скрипт/макрос для екселя пишется за 10-15 минут

умеет и неплохо, сам уже несколько лет пользуюсь без всяких экспортирований в cvs

вот например нашел за 67$ http://paggard.com/projects/xls.reader/#DEMO хотелось бы раза в два подешевле

Я работал раньше через ЦОП, а потом стал работать напрямую, работать напрямую можно только в качестве предпринимателя, официально, ежемесячно отсылаю документы по почте и т.д.

А так на мой взгляд без разницы через ЦОП или напрямую, заявка на подачу сайта рассматривается с одинаковой скоростью.

Сегодня выяснилось что у одного моего клиента сайт взломали и разместили в display:none функцию котораая вызывала код ссылок. Сам сегодня этот код вычищал, когда мне прислали ftp пароль, так что реально много сайтов ломают, а владельцы и не знают этого😒 Сайт крупного завода в Як и тиц не маленький, и в мыслях небыло чужие ссылки ставить или продавать. Так что думаю на качественном ресурсе врядли сами будут себя подставлять и такие ссылки ставить, скорее взламывают.

Яшке респект. И у меня оказывается дырка была в поиске для xss, уже закрыл:)

Всего: 334