站三界导航
首页 建站经验
  • Unknown robot是什么蜘蛛?怎么屏蔽垃圾蜘蛛爬虫,屏蔽ip段?
    Unknown robot是什么蜘蛛?怎么屏蔽垃圾蜘蛛爬虫,屏蔽ip段?

    Unknownrobot(identifiedby'spider')是什么蜘蛛?一般的蜘蛛都会在后台控制面板中显示名字,例如baidu,google,yahoo,alexa等等,但是如果你用的虚拟主机是cpanel的控制面板,那么发现Unknownrobot(identifiedby'spider')这个蜘蛛消耗很大的网站流量,那么可以推测这个是百度蜘蛛,因为cpanel的控制面板默认是不识别百度蜘蛛的,所以就会显示为Unknownrobot(identifiedby'spider')。而且通过robots.txt是无法禁止这个蜘蛛抓取网站内容的——这些垃圾爬虫不可能老老实实遵守robots规则,君不见新浪和字节前段时间还因为robots.txt打了官司,大厂都如此,其他爬虫更别指望。宝塔屏蔽常见垃圾蜘蛛和扫描工具的两种办法:最近观察网站后台网站蜘蛛爬取状况,除了我们常见的搜索引擎如百度、Google、Sogou、360等搜索引擎蜘蛛之外,还发现有很多垃圾的蜘蛛平繁的爬取本站,通常这些搜索引擎不仅不会带来流量,因为大量的抓取请求,还会造成主机的CPU和带宽资源浪费,屏蔽方法也很简单,按照下面步骤操作即可,原理就是分析指定UA然后屏蔽。下面给大家带来两种屏蔽垃圾蜘蛛的方法方法一通过网站Robots.txt来屏蔽User-agent:AhrefsBotDisallow:/User-agent:DotBotDisallow:/User-agent:SemrushBotDisallow:/User-agent:UptimebotDisallow:/User-agent:MJ12botDisallow:/User-agent:MegaIndex.ruDisallow:/User-agent:ZoominfoBotDisallow:/User-agent:Mail.RuDisallow:/User-agent:SeznamBotDisallow:/User-agent:BLEXBotDisallow:/User-agent:ExtLinksBotDisallow:/User-agent:aiHitBotDisallow:/User-agent:ResearchscanDisallow:/User-agent:DnyzBotDisallow:/User-agent:spbotDisallow:/User-agent:YandexBotDisallow:/JavaScript把以上代码复制到网站robots.txt里面方法二、通过宝塔面板配置文件判断来屏蔽垃圾蜘蛛和扫描工具1.首先进入宝塔面板,文件管理进入/www/server/nginx/conf目录,新建空白文件kill_bot.conf。然后将以下代码保存到当前文件中。#禁止垃圾搜索引擎蜘蛛抓取教程if($http_user_agent~*"CheckMarkNetwork|Synapse|Nimbostratus-Bot|Dark|scraper|LMAO|Hakai|Gemini|Wappalyzer|masscan|crawler4j|Mappy|Center|eright|aiohttp|MauiBot|Crawler|researchscan|Dispatch|AlphaBot|Census|ips-agent|NetcraftSurveyAgent|ToutiaoSpider|EasyHttp|Iframely|sysscan|fasthttp|muhstik|DeuSu|mstshash|HTTP_Request|ExtLinksBot|package|SafeDNSBot|CPython|SiteExplorer|SSH|MegaIndex|BUbiNG|CCBot|NetTrack|Digincore|aiHitBot|SurdotlyBot|null|SemrushBot|Test|Copied|ltx71|Nmap|DotBot|AdsBot|InetURL|Pcore-HTTP|PocketParser|Wotbox|newspaper|DnyzBot|redback|PiplBot|SMTBot|WinHTTP|AutoSpider1.0|GrabNet|TurnitinBot|Go-Ahead-Got-It|DownloadDemon|Go!Zilla|GetWeb!|GetRight|libwww-perl|Cliqzbot|MailChimp|SMTBot|Dataprovider|XoviBot|linkdexbot|SeznamBot|Qwantify|spbot|evc-batch|zgrab|Go-http-client|FeedDemon|JikeSpider|IndyLibrary|AlexaToolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|UniversalFeedParser|ApacheBench|MicrosoftURLControl|Swiftbot|ZmEu|jaunty|Python-urllib|lightDeckReportsBot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|EasouSpider|LinkpadBot|Ezooms"){ return403; break;}#禁止扫描工具客户端if($http_user_agent~*"crawl|curb|git|Wtrace|Scrapy"){ return403; break;}2.保存后返回到宝塔–【网站】-【设置】点击左侧【配置文件】选项卡,在“#SSL-STARTSSL相关配置,请勿删除或修改下一行带注释的404规则”上方空白行插入红色字体的代码:“includekill_bot.conf;”保存后即可生效,这样这些蜘蛛或工具扫描网站的时候就会提示403禁止访问。希望这个教程能帮助到大家,谢谢支持!实测下面的屏蔽ip段,效果更好!使用Nginx文件屏蔽IP地址如果您的网站在增强版云虚拟主机(Nginx)上运行,请按照本操作配置网站的指定访问权限,屏蔽不允许的IP地址访问。登录云虚拟主机管理页面。找到待配置Nginx文件的增强版云虚拟主机,单击对应操作列的管理。在左侧导航栏,选择高级环境设置>NGINX设置。在NGINX设置页面的编辑区域,输入您的配置Nginx文件内容(IP地址屏蔽规则)。以WordPress网站配置Nginx文件为例。各场景下IP地址屏蔽的生效规则示例如下所示:禁止单个IP地址访问location/{  deny192.168.13.0;}禁止多个指定IP地址访问location/{  deny192.168.13.0;  deny192.168.13.1;  deny10.1.5.0;}禁止多个不指定IP地址访问location/{  allow192.168.13.0;  allow10.1.5.0;  denyall;}禁止IP地址段访问location/{  deny192.168.13.0/24;}说明使用掩码方式配置IP地址段权限时,请您使用网段中最小地址/掩码方式,否则会出现配置错误提示:更新nginx设置失败:nginx:[warn]lowaddressbitsof****aremeaningless。Nginx文件编辑完成后,单击保存设置。完成IP屏蔽规则的配置后,如果这些屏蔽的IP再次访问您的WordPress网站,网页会返回403错误,表示您无访问权限。使用.htaccess文件屏蔽IP地址如果您的网站在普通版Linux操作系统云虚拟主机(Apache)上运行,请按照本方法配置网站的指定访问权限,屏蔽不允许的IP地址访问。登录云虚拟主机管理页面。找到待管理网站文件的Linux操作系统云虚拟主机,单击对应操作列的管理。在左侧导航栏,选择文件管理>文件管理器。在文件管理器页面,上传网站程序文件到Linux操作系统云虚拟主机。关于上传网站程序文件到云虚拟主机的站点根目录的具体操作,请参见使用文件管理器管理文件。说明如果您使用FTP工具管理云虚拟主机上的网站文件,具体操作,请参见上传网站文件到Linux操作系统云虚拟主机。在Linux操作系统云虚拟主机的/htdocs目录下,找到需要查看或修改的.htaccess文件,单击对应操作列的查看。说明如果您使用FTP客户端查看或修改.htaccess文件,该文件一般为隐藏文件,关于如何显示隐藏文件的具体操作,请参见如何显示FTP隐藏的文件。通过FTP客户端连接云虚拟主机后,您可以在远程站点区域通过下载、编辑和上传操作来完成.htaccess文件的修改。在弹出的文件查看/编辑页面的编辑区域,输入您的.htaccess文件内容(IP地址屏蔽规则)。以WordPress网站配置.htaccess文件为例。各场景下IP地址屏蔽的生效规则示例如下所示:禁止单个IP地址访问OrderAllow,DenyAllowfromallDenyfrom192.0.2.0禁止多个指定IP地址访问OrderAllow,DenyAllowfromallDenyfrom192.0.2.1192.0.2.0或者OrderDeny,AllowDenyfrom192.0.2.1192.0.2.0禁止多个不指定IP地址访问OrderDeny,AllowDenyfromallAllowfrom192.0.2.1192.0.2.0禁止IP地址段访问OrderAllow,DenyAllowfromallDenyfrom192.168.13.0/24.htaccess文件编辑完成后,单击确认。完成IP屏蔽规则的配置后,如果这些屏蔽的IP再次访问您的WordPress网站,网页会返回403错误,表示无访问权限。

    • 建站经验
    • 67阅读
    • 2023-02-02

  • 网站一般有什么攻击?怎么解决攻击问题?
    网站一般有什么攻击?怎么解决攻击问题?

    随着互联网的发展,现如今黑客入侵许多,各种各样的网站攻击打的企业措不及防。对于现如今的黑客入侵,顾客实质无法防止,只能想一些方式来进行防御能力,减少网站攻击给企业造成的危害。那么要想做好网站地址攻击防御,也要先了解常见的网站攻击有何方式,紧接着在进行去解决。今天站三界导航就给大伙总结了几种常见的网站地址攻击方式以及如何解决的难点。网站攻击一般分为3类,分別为Cc攻击、DDOSddos进攻、ARP欺骗攻击。一、Cc攻击 相对而言,这种攻击的损害大一些。主机空间经常出现1个基本参数IIS连接数,当被预览网站地址超出IIS连接数时,网站地址就会出现ServiceUnavailable。黑客攻击就是应用被控制的机器设备连续不断向被攻击网站发送预览postpost请求,迫使IIS连接数超出限制,当独立显卡资源或者服务器带宽资源耗光,那么网站地址也就黑客入侵垮了。对于超出百兆的攻击,服务器防火墙就等于费力,有时以致于造成服务器防火墙的独立显卡资源耗光造成服务器防火墙卡住。超出百兆上下,运营商一般全是在高层无线路由封这一黑客入侵的iP。 针对Cc攻击,一般的租用有防Cc攻击器的室内空间设计、VPS或云端服务器就可以了,或者租用服务器租赁,这种云端服务器对Cc攻击防御预期效果更强。二、ddos进攻 就是DDOS攻击,这种攻击的损害是很大的。基本概念就是向指导思想服务器发送许多数据文件,占据其服务器带宽。对于ddos进攻,继发性地加服务器防火墙失灵,必必须有一切的服务器带宽和服务器防火墙配合起来可以防御能力。如果想防御能力13G的ddos进攻,我也必不可少用大约40G的企业防火墙加上近40G的服务器带宽资源。如果单用硬防机器设备的直接成本等于高,13G硬防也要几万块元月。但是,如果用集群服务器安全防范的话,那直接成本也要低的多了。三、先讲ARP欺骗攻击 如果要开展ARP欺骗攻击,最开始要与网站地址为同样计算机机房、同样iP段、同样VLAN的云端服务器的决定权,采用入侵别的云端服务器的方式。获得决定权后应用流程隐藏被控制的机器设备为网关ipip欺骗指导思想云端服务器。这种攻击一般在网站页面中闯入编号或者阻止一些账户密码。解决这类攻击非常容易,马上通知计算机机房处理相对性的被控制的机器设备就可以了。当网站地址黑客入侵了之后,大家理应怎样解决呢?最开始查寻网站地址的云端服务器: 如果你发现网站地址黑客入侵的那时无须过多无所适从,先查寻一下一下云端服务器是不是招黑了,寻找网站地址装有的死链,紧接着做好网站地址的安全系数防御能力,操作步骤分为三歩1、开启iP禁PING,可以防止被扫描机。2、关闭无需的服务器端口。3、打开网站的服务器防火墙。 这类是只能防简单的攻击,如果出现的的网站攻击情况严重的话,顾客即然联系工程专业的专业技术来进行解决了。网站地址为什么会招黑? 网站地址挂马是每个工作人员最头痛的难点,自己感觉网站被劫持的原因一般分为两种:一、服务器空间商的安全系数导致被连累。二、种是网站源代码的安全系数自身的流程网络安全问题招黑被入侵被挂马。一般都是网站源代码装有漏洞或者云端服务器装有漏洞而黑客入侵了。网站被劫持的解决方法:1、在流程中容易找寻挂马的编号,马上删除,或是将你传云端服务器的源程序遮住数次但不断被挂,就得多方面解决掉此难点了。但这并非最好的解决方法。最好的办法还是找工程专业的程序员解决是最马上的。 清马+修补漏洞=处理简言之的挂马,就是heike依据各式各样方法,包括SQL导入,网站地址特别敏感文档扫描仪,云端服务器漏洞,网站源代码0day,等各式各样方法获得系统软件管理员账户,紧接着登陆网站后台,依据数据库查询备份数据/修补或者上传漏洞获得1个webshell。应用获得的webshell修改网站页面的类容,向网站页面中加上蓄意刹车踏板编号。可以马上依据弱动态口令获得云端服务器或者网站地址ftp手机客户端,紧接着马上对网站页面马上进行修改。当你预览被加上恶意代码的网站页面时,因为我会自动式的预览被刹车踏板的具体地址或者免费下载地址木马病毒。

    • 建站经验
    • 73阅读
    • 2023-02-02

  • 为宝塔Nginx免费防火墙添加User-Agent屏蔽规则
    为宝塔Nginx免费防火墙添加User-Agent屏蔽规则

    在宝塔中有付费的Nginx防火墙,也有Nginx免费防火墙,我们可以使用User-Agent屏蔽掉很多没必要的蜘蛛爬虫,并防止SQL注入或菜刀一句话的入侵。在免费版本的nginx防火墙规则并没有那么充分与多样,所以我们分享一下来自收费版本中的规则,可以手动逐条写入免费版本的防火墙中,可惜的是没有导入功能。关键词过滤1(WPScan|HTTrack|antSword|harvest|audit|dirbuster|pangolin|nmap|sqln|hydra|Parser|libwww|BBBike|sqlmap|w3af|owasp|Nikto|fimap|havij|zmeu|BabyKrokodil|netsparker|httperf|SF/)一句话*屏蔽的关键字*过滤2(?:define|eval|file_get_contents|include|require_once|shell_exec|phpinfo|system|passthru|chr|char|preg_\w+|execute|echo|print|print_r|var_dump|(fp)open|alert|showmodaldialog|file_put_contents|fopen|urldecode|scandir)\(一句话*屏蔽的关键字*过滤3\$_(GET|post|cookie|files|session|env|phplib|GLOBALS|SERVER)SQL注入过滤2\$_(GET|post|cookie|files|session|env|phplib|GLOBALS|SERVER)SQL注入过滤3(?:(union(.*?)select))SQL注入过滤6benchmark\((.*)\,(.*)\)SQL注入过滤7(?:from\W+information_schema\W)SQL注入过滤8(?:(?:current_)user|database|schema|connection_id)\s*\(SQL报错注入过滤01(extractvalue\(|concat\(0x|user\(\)|substring\(|count\(\*\)|substring\(hex\(|updatexml\()SQL报错注入过滤02(@@version|load_file\(|NAME_CONST\(|exp\(\~|floor\(rand\(|geometrycollection\(|multipoint\(|polygon\(|multipolygon\(|linestring\(|multilinestring\()SQL注入过滤10(substr\()SQL注入过滤1(ORD\(|MID\(|IFNULL\(|CAST\(|CHAR\))菜刀流量过滤(array_map\("ass)SQL报错注入过滤01(bin\(|ascii\(|benchmark\(|concat_ws\(|group_concat\(|strcmp\(|left\(|datadir\(|greatest\()

    • 建站经验
    • 81阅读
    • 2023-02-02

  • User-Agent过滤正则表达式(Nginx免费防火墙)
    User-Agent过滤正则表达式(Nginx免费防火墙)

    http_user_agent是客户的访问时使用的代理软件信息,一般都为浏览器,如chrome,firefox等。如果你通过程序进行访问,则在nginxlogs中会保留获取到的地址,需要拒绝某些user-agent访问站点的时候,可以根据user-agent进行相关阻止配置,也就起到了防火墙的作用。基本表达式:(HTTrack|Apache-HttpClient|harvest|audit|dirbuster|pangolin|nmap|sqln|hydra|Parser|libwww|BBBike|sqlmap|w3af|owasp|Nikto|fimap|havij|zmeu|BabyKrokodil|netsparker|httperf|SF/)扩充表达式:(HTTrack|Apache-HttpClient|harvest|audit|dirbuster|pangolin|nmap|sqln|hydra|Parser|libwww|BBBike|sqlmap|w3af|owasp|Nikto|fimap|havij|zmeu|BabyKrokodil|netsparker|httperf|CheckMarkNetwork|Synapse|Nimbostratus-Bot|Dark|scraper|LMAO|Hakai|Gemini|Wappalyzer|masscan|crawler4j|Mappy|Center|eright|aiohttp|MauiBot|Crawler|researchscan|Dispatch|AlphaBot|Census|ips-agent|NetcraftSurveyAgent|ToutiaoSpider|EasyHttp|Iframely|sysscan|fasthttp|muhstik|DeuSu|mstshash|HTTP_Request|ExtLinksBot|package|SafeDNSBot|CPython|SiteExplorer|SSH|MegaIndex|BUbiNG|CCBot|NetTrack|Digincore|aiHitBot|SurdotlyBot|null|SemrushBot|Test|Copied|ltx71|Nmap|DotBot|AdsBot|InetURL|Pcore-HTTP|PocketParser|Wotbox|newspaper|DnyzBot|redback|PiplBot|SMTBot|WinHTTP|AutoSpider1.0|GrabNet|TurnitinBot|Go-Ahead-Got-It|DownloadDemon|Go!Zilla|GetWeb!|GetRight|libwww-perl|Cliqzbot|MailChimp|SMTBot|Dataprovider|XoviBot|linkdexbot|SeznamBot|Qwantify|spbot|evc-batch|zgrab|Go-http-client|FeedDemon|JikeSpider|IndyLibrary|AlexaToolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|UniversalFeedParser|ApacheBench|MicrosoftURLControl|Swiftbot|ZmEu|jaunty|Python-urllib|lightDeckReportsBot|YYSpider|DigExt|YisouSpider|MJ12bot|EasouSpider|LinkpadBot|Ezooms|SF/)注意:如果您不了解正则表达式,请不要随意修改规则内容您可以添加或修改规则内容,但请使用正则表达式内置规则允许修改,但不可以直接删除,您可以设置规则状态来定义防火墙是否使用此规则

    • 建站经验
    • 54阅读
    • 2023-02-02

  • 宝塔面板Apache防火墙User-Agent过滤规则干货
    宝塔面板Apache防火墙User-Agent过滤规则干货

    宝塔面板Apache防火墙User-Agent过滤规则干货添加以下规则可防止一些垃圾爬虫爬取网站消耗资源,搜索引擎的爬虫不受影响防火墙规则(Abonti|aggregator|AhrefsBot|asterias|BDCbot|BLEXBot|BuiltBotTough|Bullseye|BunnySlippers|ca-crawler|CCBot|Cegbfeieh|CheeseBot|CherryPicker|CopyRightCheck|cosmos|Crescent|discobot|DittoSpyder|DOC|DotBot|DownloadNinja|EmailCollector|EmailSiphon|EmailWolf|EroCrawler|Exabot|ExtractorPro|Fasterfox|FeedBooster|Foobot|Genieo|grub-client|Harvest|hloader|httplib|humanlinks|ieautodiscovery|InfoNaviRobot|IstellaBot|Java1.|JennyBot|k2spider|KenjinSpider|KeywordDensity0.9|larbin|LexiBot|libWeb|libwww|LinkextractorPro|linko|LinkScan8.1aUnix|LinkWalker|LNSpiderguy|lwp-trivial|magpie|MataHari|MaxPointCrawler|MegaIndex|MicrosoftURLControl|MIIxpc|Mippin|MissiguaLocator|MisterPiX|MJ12bot|moget|MSIECrawler|NetAnts|NICErsPRO|Niki-Bot|NPBot|Nutch|OfflineExplorer|Openfind|panscient.com|ProPowerBot2.14|ProWebWalker|Python-urllib|QueryNMetasearch|RepoMonkey|RMA|SemrushBot|SeznamBot|SISTRIX|sitecheck.Internetseer.com|SiteSnagger|SnapPreviewBot|Sogou|SpankBot|spanner|spbot|Spinn3r|suzuran|Szukacz1.4|Teleport|Telesoft|TheIntraformant|TheNomad|TightTwatBot|Titan|True_Robot|turingos|TurnitinBot|UbiCrawler|UnisterBot|URLyWarning|VCI|WBSearchBot|WebDownloader6.9|WebAuto|WebBandit|WebCopier|WebEnhancer|WebmasterWorldForumBot|WebReaper|WebSauger|WebsiteQuester|WebsterPro|WebStripper|WebZip|Wotbox|wsr-agent|WWW-Collector-E|Xenu|yandex|Zao|Zeus|ZyBORG|coccoc|Incutio|lmspider|memoryBot|SemrushBot|serf|Unknown|uptimefiles|HTTrack|Apache-HttpClient|harvest|audit|dirbuster|pangolin|nmap|sqln|hydra|Parser|libwww|BBBike|sqlmap|w3af|owasp|Nikto|fimap|havij|zmeu|FeedDemon|IndyLibrary|AlexaToolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReportsBot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|BabyKrokodil|netsparker|httperf|SF/)把上述规则点编辑,填写进去,再保存,最后再回到Apache防火墙首页关闭防火墙,再开启防火墙。宝塔面板Apache防火墙宝塔面板Apache防火墙User-Agent过滤规则

    • 建站经验
    • 93阅读
    • 2023-02-02

  • 宝塔面板优化之php服务器性能调整
    宝塔面板优化之php服务器性能调整

    提高php服务器性能的办法有很多,但是对于已经安装了宝塔面板的服务器而言就相对简单多了,今天老白就把如何通过设置宝塔面板来提高服务器性能的过程写下来,希望能帮到初次使用宝塔面板的朋友们。宝塔面板是我们再熟悉不过的国产Linux面板了,目前在国内可以说是风声水起,用户量不断上涨。有关宝塔面板的安装使用在科星网络里面已经写过很多了,不再啰嗦。为了让服务器运行速度更快,我们就使用宝塔面板提供的功能来优化一下服务器配置。一、定期释放内存添加计划任务,可以设置每天或一周释放一次,间隔时间根据自己网站情况定,执行时机建议为半夜,如:1:30。具体如下图所示,在宝塔面板左侧的计划任务中操作即可。如何设置宝塔面板优化php服务器性能?二、添加Swap不管服务器内存多大都建议添加Swap。在宝塔面板的软件管理>>系统工具中找到Linux工具箱1.4,点击最右侧的“设置”打开Swap虚拟内存,按照下面的推荐值进行设置。如何设置宝塔面板优化php服务器性能?Swap推荐值:2G和2G以下内存的服务器,设置成和物理内存相同容量SWAP;2G以上的,设置为2G。如果跑的程序特别耗费内存,2G内存以上的Swap也可以设置与内存相同。三、安装PHP缓存扩展个人博客的php缓存扩展推荐使用Opcache脚本缓存和Memcached内容缓存。在软件管理>>你使用的php版本最右侧点击“设置”,进入安装扩展,右侧点击这两个扩展后面的“安装”,再确认一次,很快搞定。内容缓存和脚本缓存都只安装一个,不要同时安装多个。如何设置宝塔面板优化php服务器性能?四、php配置调整同样在php管理的配置修改中,memory_limit脚本内存限制修改成256M,这样wordpress跑起来更顺畅了;upload_max_filesize允许上传文件的最大尺寸,像avada模板可能会超过这个数值无法上传,需要修改为大于上传文件的数值。php配置调整在配置文件中Ctrl+F搜索memory_limit,把默认值修改成256M,保存。下图是改好后的。php配置调整五、PHP并发调整宝塔面板提供了几个优化过的php并发方案,一般1核1G内存的云服务器,设置30并发或50并发都可以,其他配置请自己测试一下合适并发方案。不建议并发超过300,如果并发不够用还是优化数据库缓存可能更有效。PHP并发调整六、php版本和MySQL数据库版本php7的性能比低版本有很大提升,强烈建议使用php7以上版本;1核1G配置的数据库推荐MySQL5.5,而5.6要求最低内存1G以上,所以大家应该知道如何选择了。七、卸载多余扩展组件如果程序不需要,就卸载ZendGuardLoader、ioncube、PATH_INFO,安装后不用也一直占用一部分内存。设置完了要重启服务器,让调整后的参数生效。八、搭配像本文开头提到的群友网站高清图片较多的,如果达到几千张且还要不停增加的话,建议在购买经过上面的一番折腾整理优化,你的云服务器应该比之前流畅很多了,没有做到的同学赶紧去试试吧,也可以在下面留言交流你认为更合适的优化方案。

    • 建站经验
    • 102阅读
    • 2023-02-02

  • 教你解决百度统计被刷广告的办法,屏蔽非法广告
    教你解决百度统计被刷广告的办法,屏蔽非法广告

    近日,在百度统计后台中广告泛滥,包括收流量、代开发票、SEO、云主机等等广告,严重影响了正常的统计分析,所以想办法解决这个问题,分享给站长们。百度统计被刷广告的症状如果你的百度统计被恶意刷广告的话,你会在百度统计后台里的搜索词、来源等看到各种广告,包括收流量、代开发票、SEO、云主机等等广告,例如我下面的截图,很多真实的流量被刷到看不到,而且流量也会造成统计不准,可能感觉最近几天流浪猛增,但实际真实流量并没有那么大。百度统计被刷广告的原理想要斩草除根,就需要知己知彼,明白他们操作的原理以后,就可以有效的遏制他们无下限的刷广告。他们是这样做的,先写一个机器爬虫,爬取页面内容,寻找「hm.baidu.com/hm.js」如果找到了就说明你使用了百度统计,然后再取后面的参数,就得到了你的百度统计ID,然后保存到数据库,拿到你的的百度统计ID以后,就可以进行下一步,使用程序批量的给百度统计接口发送数据,也就是说这些内容他们根本不是真的去你的网站,而是直接给百度统计的接口提交了数据,对你的网站流量没有任何贡献,你只有看广告的份。我也是被刷广告刷的很严重,是在忍无可忍,必须解决一下他们了。百度统计被刷广告的解决办法我们明白了他们的原理,现在就开始见招拆招,破解他们的刷广告的手段。首先,你的旧的统计代码ID已经被他们获取到了,保存到了他们的数据库,所以建议旧的代码就放弃吧,去百度统计删除掉,再新增网站,你会获得一个新的统计代码。然后,为了让他们的爬虫程序识别不到百度统计代码,我们需要将百度统计的URL地址做一个变换,我,的方式是将原有的百度统计URL地址打散成一个一个的字符串数组,然后再拼装起来,实例如下:百度统计给我们的代码:var_hmt=_hmt||[];(function(){varhm=document.createElement("script");hm.src="https://hm.baidu.com/hm.js?ee1f1987ccfc9bcd61a1d220f5ae41e1";vars=document.getElementsByTagName("script")[0];s.parentNode.insertBefore(hm,s);})();将百度统计的特征,也就是地址打散成数组,再组装使用:var_hmt=_hmt||[];(function(){varhm=document.createElement("script");varanalytics_bd='ee1f1987ccfc9bcd61a1d220f5ae41e1';hm.src=['ht','t','ps',':/','/h','m','.','ba','i','d','u.c','o','m/','h','m','.j','s?',analytics_bd].join('');vars=document.getElementsByTagName("script")[0];s.parentNode.insertBefore(hm,s);})();需要改动的就只有一行,注意「hm.src="https://hm.baidu.com/hm.js?ee1f1987ccfc9bcd61a1d220f5ae41e1";」这行代码,被拆散为数组,然后再拼装起来使用。这样他们的爬虫程序就无法识别到你在使用百度统计了。

    • 建站经验
    • 115阅读
    • 2023-01-09

  • 代码<meta http-equiv=”Cache-Control” content=”no-siteapp”>啥意思 有什么作用?
    代码啥意思 有什么作用?

    <metahttp-equiv=”Cache-Control”content=”no-siteapp”>到底是什么意思百度一下找到如下文字 解决了我的疑问从而学习到更多禁止百度转码和百度快照缓存的META声明下面说一下禁止百度转码和禁止百度快照缓存的方法。一、禁止百度转码禁止百度转码的做法很简单,直接在head部分加入如下META申明即可:<metahttp-equiv=“Cache-Control”content=“no-transform”/><metahttp-equiv=“Cache-Control”content=“no-siteapp”/>二、禁止百度快照缓存禁止百度快照缓存,可能很多人还不知道指的是什么,就是百度会缓存一份网页快照,有部分用户人存在先点快照的习惯,因为从快照点开的结果中,搜索关键词会高亮显示,方便他直达。具体做法:将如下代码加入到head部分即可:<metaname=“Baiduspider”content=“noarchive”>当然,如果要针对所有搜索引擎,只要将Baiduspider改成robots即可。修改后,并不会立即生效,得等到百度刷新数据才能看的效果:点击搜索结果中的百度快照,将直接跳转到源站,而不会展示百度缓存的页面,实际效果可以百度搜索张戈博客,然后点击百度快照就知道了。

    • 建站经验
    • 119阅读
    • 2023-01-09

  • 网站被攻击该如何处理,我来告诉你,经验!
    网站被攻击该如何处理,我来告诉你,经验!

    无论是老站还是新站,只要在网络中存在就有可能被攻击,因此对于如何处理被攻击网站一事,站长格外慎重。那么,如果发现自己的网站被攻击,被黑该怎么办呢?如何才能尽快处理恢复呢?站三界导航告诉你们,现在很多人攻击网站的时候都会带入病毒,运行不仅会给网站带来危害,也会导致信息泄露,给企业带来很大的危机,而要想解决这个问题,可以从以下几点入手:    第一、开网站安全卫士    现在网上各种病毒检测工具都有,哪种好用用哪种。而目前比较受站长欢迎的有两种,分别是360安全卫士和百度加速乐,这两种可以抵御各种攻击,因此可以使用。不过,使用这两种工具的前提是网站需要备案了。    第二、看网站日志    日志是个好东西,但是很多新手站长并没有意识到这一点,白白浪费这个好工具。网站日志能够分析出很多问题,比如IP访问,浏览器统计以及爬虫的轨迹,尤其是对于新站来讲,在前三个月的时候收录很少,其中有一点就是蜘蛛爬虫有爬取,但是就是不放出来。    看过网站日志之后就可以放心,等到蜘蛛放出来就行了,而有的站长因为没有看过日志,以为是网站不好,因此改来改去,结果让蜘蛛放入沙盒期了。    第三、删除病毒文件    删除可以删除的文件是解决新站被攻击的有效方法之一。据专业人士介绍,在新站中删除一些文件,比如会员系统、install文件等,只要是能删除的就尽量全部删除,这样就可以很快找攻击的文件了。    第四、设置网站的权限    黑客之所以能够随意的更改权限、注入木马主要是因为很少有站长给文件设置权限,大部分站长都是不在乎这一点,结果出现问题了,才想起来。而给网站FTP设置只读权限,可以限制黑客,不让他们随意更改文件,这样就能保证文件的安全。    第五、查看网站源代码    右键,查看网站源代码,从中找出不明链接,然后到相应的部位去删掉,之后更新,这样也是去除恶意代码的一种方式。不过,这是比较简单的病毒注入,也有一些是无法通过这种方式解决的,这时候就要用到一些安全扫描工具,比如360网站安全扫描。  新站容易中病毒,很大程度是因为站长在建站的时候没有做好防范措施。在这里,也提醒各位站长,不要因为站刚建立没有权重,没有排名就放松警惕,一定要提前做好一切防范措施,让网站无懈可击,这样自己才能安心。

    • 建站经验
    • 79阅读
    • 2023-01-01

  • 网站权重计算(百度、搜狗、神马、头条等)和工具推荐
    网站权重计算(百度、搜狗、神马、头条等)和工具推荐

    网站权重指的是综合搜索引擎算法中所有有利因素所带来的“数值效果”被搜索引擎所认可的指标。网站权重虽然与很多SEOER都在议论,不过可能这个标准在部分搜索引擎中根本就不存在。比如,百度权重是非百度官方的,是第三方工具平台如:站长工具、爱站等平台根据一个简单的规则计算出来的,通常数值是在0-10(站长工具为0-9)之间,数值越大,表明权重越高。以站长工具为例,百度权重的计算规则根据百度预估流量得出,具体如下:权重0无估计流量或者为0权重1预计流量1~99权重2预计流量100~499权重3预计流量500~999权重4预计流量1000~4999权重5预计流量5000~9999权重6预计流量10000~49999权重7预计流量50000~199999权重8预计流量200000~999999权重9预计流量1000000以上我们可以很直观的能看出来百度权重依赖于百度搜索引擎来路的预计流量。实际上,计算百度预估流量算法也有一定技巧,不管是站长工具还是别的类似的等平台,在权重查询页面都会展示网站对应的关键词,以及排名的位置、关键词的指数等信息。这些信息就是百度来路预计流量的计算指标。上述的计算方式是其中一种算法,那么知道了计算规则,是不是意味着就可以用规则刷百度权重呢?那么百度权重能作弊吗?常见的刷百度权重的方法就是,以自己网站的网站名或者域名为关键词,刷高搜素量,这样自己的网站肯定排第一位,预估流量也不会低,从而获得较高的百度权重。但实际上得到的这个权重是不真实的没有价值的,也就是作弊刷来的。这个就不在我们这次的讨论范围里了。其他的厂商也有一些各自计算权重的算法,比如比较权威DA和PA的权重的查询工具MOZ(https://analytics.moz.com),Ahrefs(https://ahrefs.com)的网页权重,分为域名权重DR和页面权重UR,数值也是0到100,不过这部分工具查询有些服务是需要付费的,有兴趣的也可以去试试。

    • 建站经验
    • 85阅读
    • 2022-12-22

站三界导航
本站声明:本站严格遵守国家相关法律规定,非正规网站一概不予收录。本站所有资料取之于互联网,任何公司或个人参考使用本资料请自辨真伪、后果自负,站三界导航不承担任何责任。在此特别感谢您对站三界导航的支持与厚爱。