seo優化中提高網站安全性以及其他小技巧

2014年9月15日13:58:06 發表評論 5,212 ℃

一個網站的好與壞不僅僅取決于表面的光鮮亮麗,內部的穩定性和后臺數據安全性也是至關重要的衡量標準。后臺安全性不夠很容易招致黑客的攻擊,甚至競爭對手也會使用惡劣手段來打擊你的網站以達到自身的目的,作為一個站長,保護網站是最基本的職責所在。接下來,成都網站優化博主給大家分享一下心得。

一、如何給網站后臺和目錄安全加密

  1)首先,通過國外的在線加密生成網站http://www.htaccesstools.com/htpasswd-generator/ 來生成用戶名和加密密碼,也可以用apache自帶的程序生成,但是挺麻煩的,要用doc命令。完成后,復制生成的字符串到txt文本,選擇所有文件,另存為.htpasswd即可。

  2)把.htpasswd文件放到網站根目錄外的地方(保證FTP訪問不到)。然后在.htaccess文件中加入下面指令:

 AuthUserFile XXX/.htpasswd
  AuthType Basic
  AuthName "restricted"
  Order Deny,Allow
  Deny from all
  Require valid-user
  Satisfy any

  AuthUserFile是.htpasswd文件的所在目錄,要絕對路徑,不能用相對路徑。

  AuthName是提示信息文字

  Require valid-user是允許的用戶是全部用戶,如果要限定用戶,則用Require user XX,只有用戶XX能登陸

  3).htaccess文件會暴露網站的配置以及秘鑰文件的路徑,所以需要保護起來。我試過一下午,只有一種方法暫時可行,那就是修改.htaccess配置文件本身的名字。

  在httpd.conf配置文件中找到下面的指令,注釋掉

  AllowOverride None

  然后,再加入這行指令

  AccessFileName .AA

  其中,AA是你要給.htaccess命名的新名字。然后把你的.htaccess文件改名成.AA,上傳到網站根目錄即可。

  PS:.htaccess手冊教的方法是用下面的指令來禁止其他人通過URL的方式訪問.htaccess文件,但是我試過很多次,沒有用,不知道是不是哪里出了紕漏,希望大家如果可以用請告訴原因。

  order allow,deny

  deny from all

  二、通過robots和.htaccess文件屏蔽一些無用吸血蜘蛛

  User-agent: Ezooms
  Disallow:/
  User-agent: AhrefsBot
  Disallow:/

  屏蔽這兩個蜘蛛爬取網站所有目錄

  另外以防這兩個蜘蛛不遵守robots協議,所以寫入.htaccess指令

  RewriteEngine on
  RewriteCond %{HTTP_USER_AGENT} ^Ezooms[NC]
  RewriteCond %{HTTP_USER_AGENT} ^Ezooms/1.0[NC]
  RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot[NC]
  RewriteCond %{HTTP_USER_AGENT} ^AhrefsBot/5.0[NC]
  RewriteRule ^(.*)$ http://www.google.com/

  .htaccess指令,讓Ezooms和AhrefsBot這兩個爬取網站的時候,返回的是google首頁

  以上是我忙了一個下午加一個晚上的結果,因為開始時候的只是說想著怎么提高安全性,還沒有完整的思路,更別說解決方法了。屏蔽那些無用的蜘蛛也是我昨晚查看網站日志時無意間發現的問題,希望對大家有所幫助吧,做站長真的不容易。

【騰訊云】云服務器、云數據庫、COS、CDN、短信等云產品特惠熱賣中

發表評論

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: