IP ausschließen !

  • Ersteller Ersteller Guest
  • Erstellt am Erstellt am

Adult Hosting

G

Guest

Guest
Hallo,

wie kann man eine bestimmte IP Adresse dauerhaft ausschließen ?
Ich habe zwar was gefunden wo man in die .htaccess reinschreibt, aber es geht nicht, dann geht mein ganzer Shop net mehr.
Muß man da vielleicht ne besondere Reihenfolge beachten oder sowas ?
Wie macht ihr das, wenn überhaupt.

order allow,deny

deny 123.255.1.2
deny 251.10.28.148
 
Hi tobbi

ich mach das auf Apache ebene ist effektiver.

Code:
<Directory "/var/www/web1/html">

	Order Allow,Deny
	Deny from 89.238.132.29
	Deny from 66.249.16.0/24
	Deny from 89.238.131.205
	Deny from 216.145.16.0/24
	Deny from 66.249.17.128/25
	Deny from 64.246.165.128/25
	Allow from all

</Directory>

Die IPs sind von Domaintools.com, AboutUs.com, builtwith.com
Da diese mich massive Positionen bei G gekostet haben die Seiten waren immer 2-3 und mehr Plätze vor meinen Seiten mit dem Inhalt meiner Seiten.

Der obige Code sollte eigentlich auch in einer .htaccess Funktionieren.
 
hm.. irgendwas mache ich falsch da kommt dann immer folgende Meldung

Internal Server Error
The server encountered an internal error or misconfiguration and was unable to complete your request.
Please contact the server administrator, [email protected] and inform them of the time the error occurred, and anything you might have done that may have caused the error.

More information about this error may be available in the server error log.


Was mach ich falsch ?

Die Datei sieht bei mir so aus:

# -----------------------------------------------------------------------------------------
# $Id: .htaccess,v 1.2 2004/01/02 08:57:56 fanta2k Exp $
#
# XT-Commerce - community made shopping
# http://www.xt-commerce.com
#
# Copyright (c) 2003 XT-Commerce
# -----------------------------------------------------------------------------------------
# based on:
# (c) 2000-2001 The Exchange Project
# (c) 2002-2003 osCommerce (.htaccess,v 1.1 2002/07/21); www.oscommerce.com
# (c) 2003 nextcommerce (.htaccess,v 1.1 2003/09/06); www.nextcommerce.org
#
# Released under the GNU General Public License
# -----------------------------------------------------------------------------------------
# This is used with Apache WebServers
#
# The following makes adjustments to the SSL protocol for Internet
# Explorer browsers
#
# For this to work, you must include the parameter 'Limit' to the
# AllowOverride configuration
#
# Example:
#
#<Directory "/usr/local/apache/htdocs">
# AllowOverride Limit
#</Directory>
#
# 'All' with also work. (This configuration is in your
# apache/conf/httpd.conf file)www
#php_flag register_globals off
<IfModule mod_setenvif.c>
<IfDefine SSL>
SetEnvIf User-Agent ".*MSIE.*" \
nokeepalive ssl-unclean-shutdown \
downgrade-1.0 force-response-1.0
</IfDefine>
</IfModule>
RewriteEngine On

RewriteCond %{HTTP_HOST} !^www\.sexspielfilm\.com$
RewriteRule ^(.*)$ http://www.sexspielfilm.com/$1 [L,R=301]
RewriteCond %{THE_REQUEST} index\. [NC]
RewriteRule ^(.*)index\.(.*) /$1 [L,NC,R=301]

RewriteCond %{REQUEST_URI}?%{QUERY_STRING} (.*)http://(.*) [NC]
RewriteRule ^.*$ - [F]
 
@ tobbi6

der 500er kommt eigentlich nur wenn mod_rewrite nicht aktiviert ist, du ein tipp Fehler in der .htaccess (sehen tu ich keinen) hast oder du versucht ein Modul zu benutzen was in der .htaccess nicht zu gelassen ist.

probier mal

Code:
RewriteEngine On
<IfModule mod_setenvif.c>
<IfDefine SSL>
SetEnvIf User-Agent ".*MSIE.*" \
nokeepalive ssl-unclean-shutdown \
downgrade-1.0 force-response-1.0
</IfDefine>
</IfModule>
denn soweit mir bekannt muss RewriteEngine On immer ganz oben stehen (kann mich da aber auch irren kenn es halt net anders)

eine frage noch Webspace oder Server?

@Cybermikel
Da diese mich massive Positionen bei G gekostet haben die Seiten waren immer 2-3 und mehr Plätze vor meinen Seiten mit dem Inhalt meiner Seiten.

und unter denn Keywords. Ich glaub nicht das DomainTools bei einen Keyword wie z.b. teenporn relevant ist. Und seit dem ich diese Konsorten ausgesperrt habe sind meine Seiten viel weiter oben.
 
Dann mach das mit dem Blocken auf Apache ebene.

im Apache Ordner eine neu Datei anlegen zb. myconf.conf anlegen rechte 0644
in diese denn obigen Code halt nur mit deinen IPs die du blocken willst.

Ich gehe mal davon aus das du mit Confixx arbeitest da ist es leider nicht anders möglich. Da musst du für jeden web ein extra Block machen. Muss an Conifxx liegen auf meinen Test System ohne Confixx reicht ein Block mit dem Pfad zu www/.

in der apache2.conf dann ganz unten Include /etc/apache2/myconf.conf einfügen. Apache neustarten und fertig.

Vorteil an der Sache der Apache muss nicht bei jeden Aufruf die .htaccess abfragen und ist somit schneller.
 
ich hab da was gefunden

RewriteEngine on
RewriteCond %{HTTP_HOST} !^www\.meinedomain\.de$
RewriteRule ^(.*)$ http://www.meinedomain.de/$1 [L,R=301]
deny from 192.168.0.1
ErrorDocument 403 http://127.0.0.1
deny from 192.168.0.2
ErrorDocument 403 http://127.0.0.1


kommt keine Fehlermeldung, wenn ich meine IP Adresse angebe dann kommt " Die Webseite kann nicht angezeigt werden "

Ist das richtig so ? + gibt es eine Liste von Ips wo man eigentlich grundsätzlich aussperren sollte ?
 
Bei dem Code wird die Seite auf localhost weitergeleitet und wenn du keinen Webserver auf deinem Rechner hast kann er die Seite nicht finden.

Code:
RewriteEngine on
RewriteCond %{HTTP_HOST} !^www\.meinedomain\.de$
RewriteRule ^(.*)$ http://www.meinedomain.de/$1 [L,R=301]
deny from 192.168.0.1
deny from 192.168.0.2
ErrorDocument 403 [url]http://127.0.0.1[/url]

So sollte es auch gehen. bei ErrorDocument musst halt noch denn Pfad angeben und eine eigene Fehlerseite auszugeben. Ansonsten sollte das passen. Und wie schon erwähnt ist es auf Apache ebene besser.

gibt es eine Liste von Ips wo man eigentlich grundsätzlich aussperren sollte ?

kann man drüber streiten. Wenn du z.b. nicht denn chinesischen Markt bedienst kannst du China komplett aussperren, über sinn und Unsinn muss dann halt jeder selber entscheiden.
[/quote]
 
tobbi6 schrieb:
gibt es eine Liste von Ips wo man eigentlich grundsätzlich aussperren sollte ?

hab ne Liste hier sind rund 700 ips von proxys und anderen ähnlichen sch.. gibt aber auch keine garantie auf vollständigkeit
habs erst vor ein paar Tagen auf einer Domain eingebaut und die letzten 2 Tage hat sich der Traffic fast verdreifacht
 
bei solchen contentklauern musst die nicht aussperen, sondern mache besser ne htaccess wo du ihn (die betreffende ip) auf ne andere seite umleitest, wenn er bei dir auslesen kommt.

dann wird er dir den content klauen, den du ihm giebst.

auf diese seite schreibst dann einfach das er ein iddiot sei :)
oder du leitest ihn gleich wieder um auf seine eigene seite, dann dupliziert er sich selber :)
 
susi2 schrieb:
hab ne Liste hier sind rund 700 ips von proxys und anderen ähnlichen sch.. gibt aber auch keine garantie auf vollständigkeit
habs erst vor ein paar Tagen auf einer Domain eingebaut und die letzten 2 Tage hat sich der Traffic fast verdreifacht

ist aber meistens muell, weil wenn so ne liste nicht peinlich genau gefuehrt wird, hast schnell mal die falschen ausgespert.

ausserdem eine ip kann auch mal den kunden wechseln, solche spamklau seiten leben ja nicht alzulange, wenn sie nix bringen, oder google sie kickt, werden die auch nicht mehr verlaengert.
 
andy schrieb:
bei solchen contentklauern musst die nicht aussperen, sondern mache besser ne htaccess wo du ihn (die betreffende ip) auf ne andere seite umleitest, wenn er bei dir auslesen kommt.

dann wird er dir den content klauen, den du ihm giebst.

auf diese seite schreibst dann einfach das er ein iddiot sei :)
oder du leitest ihn gleich wieder um auf seine eigene seite, dann dupliziert er sich selber :)

Oder man leitet diese einfach auf google um und sollen dort alles klauen
 
oder aber bot-trap.de verwenden. dann sind zuminest mal die ganz argen draussen.
ausserdem in der robots.txt

User-agent: seXgrabberbot
Disallow: /

User-agent: AboutUsBot
Disallow: /

User-agent: ia_archiver
Disallow: /

usw. das hilft schon viel, und aboutus sowie ia_archiver halten sich auch daran

in der htaccess sollte
deny from 156.26.1.160
deny from xxx.xxx

gruss
 
emg schrieb:
oder aber bot-trap.de verwenden. dann sind zuminest mal die ganz argen draussen.
ausserdem in der robots.txt

User-agent: seXgrabberbot
Disallow: /

User-agent: AboutUsBot
Disallow: /

User-agent: ia_archiver
Disallow: /

usw. das hilft schon viel, und aboutus sowie ia_archiver halten sich auch daran

in der htaccess sollte
deny from 156.26.1.160
deny from xxx.xxx

gruss

Danke, bei bot-trap.de bin ich angemeldet, habe auch alles gemsacht was die wollten, doch irgendwie bekomme ich da kein Download link oder was man da bekommen sollte.
 

Erotik Webmaster Forum Dating Affiliates

Zurück
Oben Unten