This is it

Рейтинг
8
Регистрация
14.12.2009

вариантов может быть много,

если навскидку - например у вас на одном домене стоит 2 ВП

вы залогинились в №1 - в одном окне броузера, поставилась кука,

потом логинитесь в №2 - в другом окне, и кука с данными для №1 читается, пароль ессно не подходит и вас выбрасывает

в любом случае я бы для начала посмотрел какая кука ставится, и ставится ли вообще

seven02:
Ого далеко пойдете ... целый конвеер наладили 🚬

>не возмёте на свой завод? 😂

Вообще цель стоит - нажатием 1 кнопки выдавать клиентам полностью укомплектованный магазин в индексе. То есть свой код Сапы указал и все, деньги пошли. Можно покупать следующий.

Соответственно, после завершения тестирования и оценки его результатов, как таковая команда уже не нужна мне будет :) Надеюсь уже скоро это все будет доступно всем желающим, причем с аргументрованными и наглядными результатами тестов.

bliiiiiiiiina:
Вы работаете группой? А как бюджет делите? :)

бюджета пока нет,

я все эксперименты пока сам оплачиваю 😎

один человек программит генератор шопов для Сапы,

другой их собирает, заливает и ставит,

третий - оптимизатор

и еще копирайтер для статей на шопы.

ps. Нет, это не доры конечно. Красивые уникальные магазины с товарами, информацией о компании, вакансиями, статьями по теме и тд. СДЛ практически в чистом виде.

Один крупный сайт с роликами от камедиклаб сделал следующим образом - на каждой странице указано 2-3 предложения текстом из ролика прямо в виде диалогов. Здесь даже услуги копирайтера не требуются, послушал и написал текст.

в зависимости от кол-ва страниц на сайте,

большие сайты (от 1000 стр) прогоняем и по социалкам, и аддурл, и каталоги.

Но делаем это медленно и последовательно, чтобы рост ссылочной массы не был слишком быстрым.

Результат есть.

можно попробовать вот этим, вроде бы показывает внешние ссылки и довольно быстрая

http://www.iwebtool.com/broken_link_checker

но я уверен, что команда wget с этой задачей справится

советую поискать в этом направлении

http://www.gnu.org/software/wget/manual/wget.html

я бы все-равно рекомендовал использовать серверный поиск, так как собирать ссылки кравлерами будет долго и недостоверно.

1) Нужно сделать дамп БД

- либо зайти в phpmyadmin (если он установлен) и там сдампить

- либо через ssh командой


mysqldump -server -user -pass database > database.sql

2) вытащить все ссылки из полученного дампа тем же грепом

если предположить что:

- тот кто вставлял ссылки их не криптовал

- страницы на вашем сайте в статике и не используется БД

то я бы зашел на сервер и использовал команду grep

http://en.wikipedia.org/wiki/Grep

нужно только правильно составить шаблон, который и выведет все ссылки

примерно вот так


(?i)(http|ftp|www)(\S+)(\.\l{2,4})|(\S+)(\.\l{2,4})

или

(?i)(http|ftp|www)(\S+)|(\S+) (\.gov|\.us|\.net|\.com|\.edu|\.org|\.biz)
1 23
Всего: 28