Удаленных viewtopic php t

phpbb-belk.ru

Robots.txt — текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем.

файл для форума phpbb3:

User-agent: *
Disallow: /adm/
Disallow: /faq.php
Disallow: /mcp.php
Disallow: /index.php?
Disallow: /memberlist.php
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewonline.php
Disallow: /*&st=*
Disallow: /*&sk=*
Disallow: /*&sd=*
Disallow: /*&hilit=*
Disallow: /*&view=*
Disallow: /viewtopic.php*p=*
Disallow: /viewtopic.php?t=*
Disallow: /view*&start=0$

User-agent: Yandex
Disallow: /adm/
Disallow: /faq.ph
Disallow: /mcp.php
Disallow: /index.php?
Disallow: /memberlist.php
Disallow: /posting.php
Disallow: /report.php
Disallow: /search.php
Disallow: /style.php
Disallow: /ucp.php
Disallow: /viewonline.php
Disallow: /*&st=*
Disallow: /*&sk=*
Disallow: /*&sd=*
Disallow: /*&hilit=*
Disallow: /*&view=*
Disallow: /viewtopic.php*p=*
Disallow: /viewtopic.php?t=*
Disallow: /view*&start=0$
Disallow: /viewtopic.php?p=*
Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous

Clean-param: sid /index.php
Clean-param: sid /viewforum.php
Clean-param: sid /viewtopic.php

Директивы Disallow и Allow

Чтобы запретить доступ робота к сайту или некоторым его разделам, используйте директиву Disallow .
Примеры:

User-agent: *
Disallow: / # блокирует доступ ко всему сайту

User-agent: *
Disallow: /cgi-bin # блокирует доступ к страницам,
# начинающимся с ‘/cgi-bin’

В соответствии со стандартом перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки.

Символ # предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.

Чтобы разрешить доступ робота к сайту или некоторым его разделам, используйте директиву Allow
Примеры:

User-agent: *
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с ‘/cgi-bin’

Примечание. Недопустимо наличие пустых переводов строки между директивами User-agent, Disallow и Allow.

Директива sitemap

Если вы используете описание структуры сайта с помощью файла sitemap, укажите путь к файлу в качестве параметра директивы Sitemap (если файлов несколько, укажите все). Пример:

User-agent: *
Allow: /
Sitemap: http://mysite.com/site_structure/my_sitemaps1.xml
Sitemap: http://mysite.com/site_structure/my_sitemaps2.xml

Робот запомнит путь к файлу, обработает данные и будет использовать результаты при последующем формировании сессий загрузки.

Директива Host

Директива Host показывает роботам ссылку на основной сайт

#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается

User-Agent: *
Disallow:
Host: www.myhost.ru

Для каждого файла robots.txt обрабатывается только одна директива Host. Если в файле указано несколько директив, робот использует первую.

Host: myhost.ru # используется

User-agent: *
Disallow: /cgi-bin

User-agent: Yandex
Disallow: /cgi-bin
Host: www.myhost.ru # не используется

Директива Clean-param

Если адреса страниц сайта содержат динамические параметры, которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т. п.), вы можете описать их с помощью директивы Clean-param .
Робот Яндекса, используя эту информацию, не будет многократно перезагружать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.
Например, на сайте есть страницы:

Читайте также:  Анимация загрузки css примеры

Параметр ref используется только для того, чтобы отследить с какого ресурса был сделан запрос и не меняет содержимое, по всем трем адресам будет показана одна и та же страница с книгой book_id=123 . Тогда, если указать директиву следующим образом:

User-agent: Yandex
Disallow:
Clean-param: ref /some_dir/get_book.pl

робот Яндекса сведет все адреса страницы к одному:

Если на сайте доступна страница без параметров:

то все сведется именно к ней, когда она будет проиндексирована роботом. Другие страницы вашего сайта будут обходиться чаще, так как нет необходимости обновлять страницы:

Я ещё запретил сканировать ботам новостной канал (rss) в Яндексе, так как в форуме phpbb 3.0 формат данных этого канала не соответствует требованиям Яндекса и он выводит его как ошибку (неподдерживаемый формат).
для запрета необходимо добавить

пример нового файла robots.txt:

Комментарий к файлу: обновление 21.12.2019
robots.rar [345 байт]
Скачиваний: 20

Не в сети

Репутация: 15

Отличная статья, Андрей!
Начал вносить изменения. У меня ранее было одинаково прописано и для всех поисковиков и для Яши:

Disallow: /forum/faq.php
Disallow: /forum/mcp.php
Disallow: /forum/memberlist.php
Disallow: /forum/posting.php
Disallow: /forum/report.php
Disallow: /forum/search.php
Disallow: /forum/style.php
Disallow: /forum/ucp.php
Disallow: /forum/viewtopic.php?p=*
Disallow: /forum/viewtopic.php?f=*&t=*&start=0$
Disallow: /forum/viewtopic.php?f=*&t=*&view=next
Disallow: /forum/viewtopic.php?f=*&t=*&view=previous
Crawl-delay: 4

А тут кодинг разный. Посмотрим как отреагируют поисковые системы

Добавлено спустя 3 минуты 32 секунды:
Для статистики и для последующего сравнения прикреплю картинку
со старым моим роботс:

Добавлено спустя 16 минут 2 секунды:
Почему то в оригинальной статье, этот код отсутствует:

Disallow: /viewtopic.php?f=*&t=*&start=0$
Disallow: /viewtopic.php?f=*&t=*&view=next
Disallow: /viewtopic.php?f=*&t=*&view=previous

Добавлено спустя 13 минут 12 секунд:
Мой полный robots.txt теперь выглядит так:

User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */feed
Disallow: */comments
Disallow: /*?replytocom
Disallow: /forum/adm/
Disallow: /forum/faq.php
Disallow: /forum/mcp.php
Disallow: /forum/index.php?
Disallow: /forum/memberlist.php
Disallow: /forum/posting.php
Disallow: /forum/report.php
Disallow: /forum/search.php
Disallow: /forum/style.php
Disallow: /forum/ucp.php
Disallow: /forum/viewonline.php
Disallow: /forum/*&st=*
Disallow: /forum/*&sk=*
Disallow: /forum/*&sd=*
Disallow: /forum/*&hilit=*
Disallow: /forum/*&view=*
Disallow: /forum/viewtopic.php*p=*
Disallow: /forum/viewtopic.php?f=*
Disallow: /forum/view*&start=0$

User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */feed
Disallow: */comments
Disallow: /*?replytocom
Disallow: /forum/adm/
Disallow: /forum/faq.ph
Disallow: /forum/mcp.php
Disallow: /forum/index.php?
Disallow: /forum/memberlist.php
Disallow: /forum/posting.php
Disallow: /forum/report.php
Disallow: /forum/search.php
Disallow: /forum/style.php
Disallow: /forum/ucp.php
Disallow: /forum/viewonline.php
Disallow: /forum/*&st=*
Disallow: /forum/*&sk=*
Disallow: /forum/*&sd=*
Disallow: /forum/*&hilit=*
Disallow: /forum/*&view=*
Disallow: /forum/viewtopic.php*p=*
Disallow: /forum/viewtopic.php?f=*
Disallow: /forum/view*&start=0$
Disallow: /forum/viewtopic.php?p=*
Disallow: /forum/viewtopic.php?f=*&t=*&start=0$
Disallow: /forum/viewtopic.php?f=*&t=*&view=next
Disallow: /forum/viewtopic.php?f=*&t=*&view=previous

Читайте также:  Css scroll width on hover

Clean-param: sid /forum/index.php
Clean-param: sid /forum/viewforum.php
Clean-param: sid /forum/viewtopic.php

Sitemap: https://crimea-your.ru/sitemap.xml.gz
Sitemap: https://crimea-your.ru/sitemap.xml
Sitemap: https://crimea-your.ru/forum/sitemap.php

При этом я заменил правило Disallow: /viewtopic.php?t=*, на Disallow: /viewtopic.php?f=*

А на счет feed хотел уточнить: у меня стоит запрет для сайта: Disallow: */feed
а для форума будет так: Disallow: forum/feed.php
Надо ли разделять пустой строкой запреты сайта от форума?

Добавлено спустя 13 минут 58 секунд:
Эх, не потеряем ли мы ссылочную массу, Андрей.
Вы это делали:

Если ваш форум не новый и уже был проиндексирован поисковиками, то вам также будет нужно сделать перенаправление (редирект) со старых адресов на новые, чтобы не потерять вес страниц. В этом случае не нужно добавлять правило Disallow: /viewtopic.php?f=* в роботс. Один из вариантов сделать редирект со старых страниц — добавить в .htaccess форума следующий код:

Options +FollowSymlinks
RewriteEngine On
RewriteBase /

RewriteCond % (.*)f=(3+)&t=(.+) [NC]RewriteRule ^viewtopic\.php$ viewtopic.php?%1t=%3 [R=301]

Добавлено спустя 2 минуты 1 секунду:
Короче говоря пока сделал так.

Убрал /viewtopic.php?f=* из роботс

Добавлено спустя 1 минуту 44 секунды:
и добавил в файл .htaccess

Options +FollowSymlinks
RewriteEngine On
RewriteBase /forum/

RewriteCond % (.*)f=(6+)&t=(.+) [NC]RewriteRule ^viewtopic\.php$ viewtopic.php?%1t=%3 [R=301]

Источник

phpBB Guru — Официальная русская поддержка форума phpBB3

Уважаемые пользователи!
Напоминаем, что с 7 ноября 2020 года phpBB Group прекратила выпуск обновлений для phpBB версии 3.2.
С учетом этого, рекомендуется обновить конференции до версии 3.3.
Сайт официальной русской поддержки phpBB Guru продолжит поддержку phpBB 3.2 до отдельного объявления.

robots.txt для 3.x

Ваш вопрос может быть удален без объяснения причин, если на него есть ответы по приведённым ссылкам (а вы рискуете получить предупреждение ).

Erlang phpBB 2.0.15 Сообщения: 1033 Стаж: 19 лет Откуда: Москва Благодарил (а): 293 раза Поблагодарили: 6 раз Контактная информация:

robots.txt для 3.x

Сообщение Erlang » 12.12.2014 12:48

Какие изменения стоит внести в robots.txt для phpBB 3.1.X?

Anvar Former team member Сообщения: 1965 Стаж: 13 лет 3 месяца Благодарил (а): 67 раз Поблагодарили: 795 раз Контактная информация:

Re: robots.txt для 3.1

Сообщение Anvar » 12.12.2014 13:56

Читайте также:  Start python file windows

Если форум расположен по такому адресу: example.com/forum/ , то размещаю по адресу: example.com/robots.txt

User-agent: * Disallow: /forum/*?sid=* Disallow: /forum/adm/* Disallow: /forum/download/* Disallow: /forum/faq.php Disallow: /forum/mcp.php Disallow: /forum/memberlist.php Disallow: /forum/posting.php Disallow: /forum/report.php Disallow: /forum/search.php Disallow: /forum/ucp.php Disallow: /forum/viewtopic.php?p=* Disallow: /forum/viewtopic.php?f=*&t=*&start=0$ Disallow: /forum/viewtopic.php?f=*&t=*&view=next Disallow: /forum/viewtopic.php?f=*&t=*&view=previous Sitemap: http://example.com/forum/sitemap.xml Clean-param: sid /forum/index.php Clean-param: sid /forum/viewforum.php Clean-param: sid /forum/viewtopic.php User-agent: Yandex Disallow: /forum/*?sid=* Disallow: /forum/adm/* Disallow: /forum/download/* Disallow: /forum/faq.php Disallow: /forum/mcp.php Disallow: /forum/memberlist.php Disallow: /forum/posting.php Disallow: /forum/report.php Disallow: /forum/search.php Disallow: /forum/ucp.php Disallow: /forum/viewtopic.php?p=* Disallow: /forum/viewtopic.php?f=*&t=*&start=0$ Disallow: /forum/viewtopic.php?f=*&t=*&view=next Disallow: /forum/viewtopic.php?f=*&t=*&view=previous Host: example.com Sitemap: http://example.com/forum/sitemap.xml Clean-param: sid /forum/index.php Clean-param: sid /forum/viewforum.php Clean-param: sid /forum/viewtopic.php

Последний раз редактировалось Anvar 07.06.2015 17:28, всего редактировалось 2 раза.
Причина: Удалён Disallow: /forum/style.php

Источник

как удалить файл, когда элемент не найден?

не могу удалить файлов 6 шт.
как я удалял:
1) нажимаю «delete»
2) появляется окно «Удалить файл» «Вы действительно хотите переместить этот файл в корзину? » я нажимаю «да»
3) появляется окно «Элемент не найден» «его больше нет в C:\DCDownloads проверьте расположение этого элемента и повторите попытку. »
4) обновляю папку, а файлы все еще есть.
что делать как удалить эти файлы?
1 файл весит: 11,5 МБ
название: «01. Nostalgia» и так далее до 05. и еще 1 файл с названием «Dodge»
переименовать их тоже нельзя

потом скачайте и установите RegSupreme Pro
Программа куда лучше справляется с проблемами реестра чем аналогичные продукты.
http://rutracker.org/forum/viewtopic.php?t=1616274
Запустите её — в ней найдёте то, что нужно удалить
Эта программа удалит и подчистит хвосты удалённых приложений

Добавляете папку в архив с помощью WinRar, и в процессе архивации ставите галочку «удалить файлы после архивации». Потом просто удаляете архив, и ни следа от папки.

РЕШЕНИЕ ВОПРОСА ЧЕРЕЗ КОМАНДНУЮ СТРОКУ (CMD с правами администратора): https://otvet.mail.ru/answer/1846162531

Парень, который предложил решение через создание архива, ты ЛУЧШИЙ. )))
Пробовала всё: и антивирус, и командну строку, и анлокер — всё бестолку. А оказалось так просто))) Спасибо!

Это вирус!
Смотрите антивирус тут:
comp-edit.ru/best-antivirus/
Ставите, сканируете им систему, и забываете о подобных проблемах навсегда.
Инструкции по установке и использованию, если понадобятся, там есть тоже.

С помощью любого архиватора (WinRAR, 7-Zip и т. д.), добавьте этот файл в архив, при этом в опциях архивирования отметьте «Удалять файлы после сжатия». В свою очередь сам созданный архив удалится без проблем.

Источник

Оцените статью