一個網站的好與壞不僅僅取決于表面的光鮮亮麗,內部的穩定性和后臺數據安全性也是至關重要的衡量標準。后臺安全性不夠很容易招致黑客的攻擊,甚至競爭對手也會使用惡劣手段來打擊你的網站以達到自身的目的,作為一個站長,保護網站是最基本的職責所在。接下來,成都網站優化博主給大家分享一下心得。
一、如何給網站后臺和目錄安全加密
1)首先,通過國外的在線加密生成網站http://www.htaccesstools.com/htpasswd-generator/ 來生成用戶名和加密密碼,也可以用apache自帶的程序生成,但是挺麻煩的,要用doc命令。完成后,復制生成的字符串到txt文本,選擇所有文件,另存為.htpasswd即可。
2)把.htpasswd文件放到網站根目錄外的地方(保證FTP訪問不到)。然后在.htaccess文件中加入下面指令:
AuthUserFile XXX/.htpasswd AuthType Basic AuthName "restricted" Order Deny,Allow Deny from all Require valid-user Satisfy any
AuthUserFile是.htpasswd文件的所在目錄,要絕對路徑,不能用相對路徑。
AuthName是提示信息文字
Require valid-user是允許的用戶是全部用戶,如果要限定用戶,則用Require user XX,只有用戶XX能登陸
3).htaccess文件會暴露網站的配置以及秘鑰文件的路徑,所以需要保護起來。我試過一下午,只有一種方法暫時可行,那就是修改.htaccess配置文件本身的名字。
在httpd.conf配置文件中找到下面的指令,注釋掉
AllowOverride None
然后,再加入這行指令
AccessFileName .AA
其中,AA是你要給.htaccess命名的新名字。然后把你的.htaccess文件改名成.AA,上傳到網站根目錄即可。
PS:.htaccess手冊教的方法是用下面的指令來禁止其他人通過URL的方式訪問.htaccess文件,但是我試過很多次,沒有用,不知道是不是哪里出了紕漏,希望大家如果可以用請告訴原因。
order allow,deny
deny from all
二、通過robots和.htaccess文件屏蔽一些無用吸血蜘蛛
User-agent: Ezooms Disallow:/ User-agent: AhrefsBot Disallow:/
屏蔽這兩個蜘蛛爬取網站所有目錄
另外以防這兩個蜘蛛不遵守robots協議,所以寫入.htaccess指令
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Ezooms[NC]
RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot[NC]
RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot/5.0[NC]
RewriteRule ^(.*)$ http://www.google.com/
.htaccess指令,讓Ezooms和AhrefsBot這兩個爬取網站的時候,返回的是google首頁
以上是我忙了一個下午加一個晚上的結果,因為開始時候的只是說想著怎么提高安全性,還沒有完整的思路,更別說解決方法了。屏蔽那些無用的蜘蛛也是我昨晚查看網站日志時無意間發現的問題,希望對大家有所幫助吧,做站長真的不容易。


