вариантов может быть много,
если навскидку - например у вас на одном домене стоит 2 ВП
вы залогинились в №1 - в одном окне броузера, поставилась кука,
потом логинитесь в №2 - в другом окне, и кука с данными для №1 читается, пароль ессно не подходит и вас выбрасывает
в любом случае я бы для начала посмотрел какая кука ставится, и ставится ли вообще
Вообще цель стоит - нажатием 1 кнопки выдавать клиентам полностью укомплектованный магазин в индексе. То есть свой код Сапы указал и все, деньги пошли. Можно покупать следующий.
Соответственно, после завершения тестирования и оценки его результатов, как таковая команда уже не нужна мне будет :) Надеюсь уже скоро это все будет доступно всем желающим, причем с аргументрованными и наглядными результатами тестов.
бюджета пока нет,
я все эксперименты пока сам оплачиваю 😎
один человек программит генератор шопов для Сапы,
другой их собирает, заливает и ставит,
третий - оптимизатор
и еще копирайтер для статей на шопы.
ps. Нет, это не доры конечно. Красивые уникальные магазины с товарами, информацией о компании, вакансиями, статьями по теме и тд. СДЛ практически в чистом виде.
Один крупный сайт с роликами от камедиклаб сделал следующим образом - на каждой странице указано 2-3 предложения текстом из ролика прямо в виде диалогов. Здесь даже услуги копирайтера не требуются, послушал и написал текст.
в зависимости от кол-ва страниц на сайте,
большие сайты (от 1000 стр) прогоняем и по социалкам, и аддурл, и каталоги.
Но делаем это медленно и последовательно, чтобы рост ссылочной массы не был слишком быстрым.
Результат есть.
можно попробовать вот этим, вроде бы показывает внешние ссылки и довольно быстрая
http://www.iwebtool.com/broken_link_checker
но я уверен, что команда wget с этой задачей справится
советую поискать в этом направлении
http://www.gnu.org/software/wget/manual/wget.html
я бы все-равно рекомендовал использовать серверный поиск, так как собирать ссылки кравлерами будет долго и недостоверно.
1) Нужно сделать дамп БД
- либо зайти в phpmyadmin (если он установлен) и там сдампить
- либо через ssh командой
mysqldump -server -user -pass database > database.sql
2) вытащить все ссылки из полученного дампа тем же грепом
если предположить что:
- тот кто вставлял ссылки их не криптовал
- страницы на вашем сайте в статике и не используется БД
то я бы зашел на сервер и использовал команду grep
http://en.wikipedia.org/wiki/Grep
нужно только правильно составить шаблон, который и выведет все ссылки
примерно вот так
(?i)(http|ftp|www)(\S+)(\.\l{2,4})|(\S+)(\.\l{2,4}) или (?i)(http|ftp|www)(\S+)|(\S+) (\.gov|\.us|\.net|\.com|\.edu|\.org|\.biz)