有时候我们想知道某个网站是否已经备案,但是不知道去哪里查询或者不知道怎么查询。其实网站备案信息去工信部域名查询系统查询还是比较准确的,今天小编就来教大家怎么查询网站是否备案。1、首先我们要打开工信部备案信息查询系统,一般国家机构的域名都是以.gov结尾的,你懂的。2、进入主页后,点击右下方的“公共查询”按钮。3、然后会进入备案查询系统,在左侧菜单栏可以看到相关查询链接,点击“备案信息查询”链接。4、然后在右侧就可以输入查询信息了,上面可以任选一项查询,比如域名或者网站名称等都可以,然后点击下方的“获取验证码”,输入验证码后点击“提交”即可。5、如果域名已备案,就可以看到其基本信息了,点击后面的详细链接,还可以看其详细信息。6、如果网站还没有备案,那么会提示“没有符合条件的记录”。注意事项:网站备案信息还是要去官网查询比较靠谱。
近日微软推出了一个神奇的页面——How-old.net,通过传照片猜年龄迅速刷爆朋友圈。上线几个小时,已经测试了超21万张图片,由于推测存在不小误差,不少名人都被“玩坏了”,微软认为同年的林志颖和郭德纲年龄差了一个吴奇隆。那么当科技大佬们遇到“How-old”会如何呢? 参考FunwithML,StreamAnalyticsandPowerBI,内有详细说明。 这个demo是我们IMML部门(InformationManagementandMachineLearning)做的,主要组件是: 1.AzureMachineLearning平台以及其gallery中的faceapi。MicrosoftAzureMachineLearningGallery 2.实时统计用的是AzureEventHub和AzureStreamAnalytics,后者可以在前者的事件流上使用类SQL的语句来执行一个NearRealtime的统计,比如每10秒内的访问次数和结果分布。 其实本demo主要目的是展现ASA以及PowerBI的实时统计展现能力,其中ASA刚刚GA(generalavailability),MachineLearning和facedetectionapi是之前就已经有的东西了,没想到大家都关注人脸识别去了。 程序员们,你们只需要1天时间就可以建立类似的网站。利用微软发布的facedetectionapi,只要几下restapi调用就可以得到结果了。这里有很详细的howto来教你如何调用这些api:MicrosoftProjectOxfordHow-todetectfacesfromanimage。而且,识别年龄和性别只是一个小功能,这套api还包括识别两张照片是不是同一个人,以及识别出某个具体的人等高级功能。 Ageestimationviaface. 1.Facedetect,检测图片中人脸的位置,cascadeadaboost是最常用的方法。 2.Facealignment,图像对准,确定一些关键的点的位置,比如眉毛,眼睛,鼻子,嘴角等,确定这些点之后可以确定人脸区域,倾斜的也可以。 3.Featureextract,有了faceregion之后,开始提取feature,形状shape,纹理texture,几何geometry信息是最关键的feature了。 4.Train,有了大量feature数据以及对应的年龄数据,建立一个model开始训练。SVM,linearregression等等。 5.Ageestimation,新来一张图片,获取feature,根据4获取的训练参数,估计年龄。 目前看到一些paper给出的MAE(Meanabsoluteerror)可以到4-5岁,但都是基于实验室数据,微软的也试了一下,variance有点大。 微软本来是为了宣传云计算,估计年龄应该只是一个噱头。
前言自腾讯与京东建立了战略合作关系之后,笔者网上购物就首选京东了。某天在家里访问京东首页的时候突然吃惊地发现浏览器突然跳到了第三方网站再回到京东,心里第一个反应就是中木马了。竟然有这样的事,一定要把木马大卸八块。原因排查首先在重现的情况下抓包,京东官网确实返回了一段JavaScript让浏览器跳转到了yiqifa.com。下图是应用层的抓包。服务器返回的代码导致跳转,基本可以排除本地木马,推测是网络或者服务器的问题。根据笔者的经验,这种情况很大可能是链路上的流量劫持攻击。当然也不能排除京东服务器被黑的情况。继续排查。应用层已经不行了,我们要用Wireshark抓网络层的包。从Wireshark结果可以看到,网络上出现了两个京东的HTTP响应。第一个先到,所以浏览器执行里面的JavaScript代码转到了yiqifa.com;第二个HTTP响应由于晚到,被系统忽略(Wireshark识别为out-of-order)。两个京东的HTTP响应包,必然一真一假。快揭示真相了。再来看看两个HTTP响应的IP头。第一个包TTL值是252,第二个包TTL值是56,而之前TCP三次握手时京东服务器的TTL值是56,故可以判断先到的包是伪造的,真的包晚到而被系统忽略。至此,确认是链路上的劫持。攻击方式继续分析伪造的数据包。伪造包的TTL值是252,也就是说它的原始TTL值应该是255(大于252的系统默认TTL值只能是255了,一般不会修改),也就表明攻击者的设备离我隔了3个路由;而正常的京东网站的HTTP响应TTL值是56,隔了8个路由。物理上假的设备离我近,所以伪造的HTTP响应会先到——比较有意思的是,笔者实际监测时候发现也有伪造包晚到导致劫持失败的情况。推测是一个旁路设备侦听所有的数据包,发现请求京东首页的HTTP请求就立即返回一个定制好的HTTP响应。大致的攻击示意图如下。当时笔者推测攻击者在链路上大动干戈应该不会只针对一个网站,于是就访问了下易迅、淘宝、天猫这些电商网站,结果发现易迅也受到同样的攻击。看起来这次流量劫持的目的是将电商网站流量导给返利联盟,通过返利联盟获得当前用户成交金额的返利。基本确认运营商有问题,但是无法确认是运营商官方故意的还是遭到黑客攻击或者是内部人士偷偷搞的。攻击源定位来看看当时的路由结果:如果按初始TTL值为255来算,HTTP包到达本机后为252,推算出经过了3(255-252)个路由,出问题的地方就在第4个路由附近,也就是这里的119.145.220.86(属于深圳电信)。当然了,虽然基本可以确认是第四个路由附近的问题(笔者连续几天抓包,伪造的HTTP响应包TTL值一直是252),但是不排除设备故意构造一个初始TTL值(比如设置为254)来增加追查难度,为了严谨的治学态度及避免被攻击者迷惑,所以证据要坐实了。定位比较简单,既然攻击设备是旁路侦听数据包,可以推测它是基于包而非状态的,我们构造被侦听的数据包(也就是直接发出访问京东首页的HTTP请求TCP包,不需要三次握手)多次发送,TTL值从1开始递增,精确地传递数据包到每一个路径上,直到出现伪造响应——没有问题的位置是不会有响应的,第一个出现伪造响应的位置就是出问题的位置。这个时候就需要一个数据包构造工具了,基于Python的Scapy或者Windows下的XCAP都行。于是一路发过去,TTL值等于4的时候伪造的响应包出现了——确认就是第四跳路由出问题了,同时119.145.55.14回复了Time-to-liveExceeded的ICMP包。有了充分证据,于是整理了一个图文并茂的文档通过腾讯安全应急响应中心向深圳电信报障。一天后得到运营商答复:“经核查,深圳本地没有进行推送,经网上查询有木马或病毒会导致此现象,非电信网内问题,请进行杀毒后再测试,谢谢”。不过从当天晚上起,我再在ADSL环境测试,就没有发现这种流量劫持现象了。攻防之道链路劫持对企业和用户都是很麻烦的,影响用户体验,还泄漏敏感信息,而且还是分地域的,检测和防御起来也相对困难。 链路劫持已经被某些人运用的炉火纯青。比如近期业界发现部分区域的百度联盟广告脚本被植入恶意JavaScript去DDoS攻击GitHub。腾讯历史上也遇到过多起链路劫持攻击,目的性很强,大部分是插广告(少部分是钓鱼和挂马),攻击手法各种各样,有运营商的区域DNS劫持和链路劫持、运营商区域DNSServer遭到缓存投毒攻击(利用CVE-2007-2926,非常经典)、开发商在路由软件中植入劫持代码、CDN与源通信遭到ARP攻击、用户PC本地木马。当然,这些目前都已经解决了,也在持续监测中。 为了对抗链路劫持,很多腾讯业务也都使用了HTTPS或者私有协议,比如QQWeb登录、QQ邮箱、理财通、Web微信、微信公众平台等。DNS劫持攻击相对容易检测和防护。检测方面,用分布的点去进行DNS查询即可,发现运营商DNS结果不对就可以推动修复。防护方面,一种方案是使用DNSSEC(DNSSecurityExtensions);腾讯、114DNS还研发了自己的方案——HttpDNS。HttpDNS不使用DNS协议而是通过HTTP协议从HttpDNS后端服务器获取域名对应的IP。当然,类似的思路我们可以实现一堆了:HTTPSDNS、TCPDNS、UDPDNS、ICMPDNS……链路劫持相对复杂。 检测方面,如有客户端,可以依靠客户端进行检测;如果没有客户端,就具体情况具体分析了,可以在网页里用JavaScript检测页面元素,甚至可以在全国重要城市租用ADSL探测。另外,在机房的流量监控设备里会发现异常:比如这个案例就会出现用户接收了HTTP响应后没有回应,然后URL中又带了yiqifa.com的关键字重新访问主页的情况;再比如某些设备的HTTP阻断会向服务器发特定的RST包(我见过发IPId为8888的案例)。防护方面,这个案例只是伪造数据包,并没有实施阻断,所以只要客户端的安全软件把疑似出问题的包(一次TCP会话中TTL值相差很大或者IPId突然跳变)拦截就可以防御。为了避免误杀,可以拦截并休眠1秒,如果没有同样的数据包过来再放行。有自己客户端的可以走自己的私有协议,网站类就困难一些,部署HTTPS吧。百度主页近期就使用了HTTPS,不过大部分用户还是不习惯在浏览器里输“https://”,所以还是存在被劫持的风险(类似的工具有SSLStrip)。当然了,对抗也会随之升级的,比如这次发现的GMail证书伪造事件。 在HTTPS尚不能大规模普及的情况下,是否可以给用户或者终端软件提供一个规避链路劫持的安全服务呢?似乎是可以的。下图是笔者构想的一个简单的通过本地代理软件加云服务的方式规避不安全ADSL链路的解决方案。一些浏览器的云加速也客观上实现了这个功能。对于安全性不确定的公共WiFi,也可以用类似的方法来规避风险。后记希望本文对你有帮助。
使用SSL协议有什么好处呢?SSL安全协议工作在网络传输层,适用于HTTP,telnet,FTP和NNTP等服务,不过SSL最广泛的应用还是WEB安全访问,如网上交易,政府办公等。本文将由笔者为各位读者介绍使用SSL加密协议建立WWW站点的全过程,为了保证技术的先进性我们介绍在windows2003的IIS6上建立SSL加密的方法,当然在windows2000的IIS5上建立SSL加密步骤基本相同。一、先决条件:要想成功架设SSL安全站点关键要具备以下几个条件。1、需要从可信的证书办法机构CA获取服务器证书。2、必须在WEB服务器上安装服务器证书。3、必须在WEB服务器上启用SSL功能。4、客户端(浏览器端)必须同WEB服务器信任同一个证书认证机构,即需要安装CA证书。二、准备工作:在实施SSL安全站点之前需要我们做一些准备工作。第一步:默认情况下IIS6组件是安装在windows2003中的,如果没有该组件请自行安装。第二步:我们建立的IIS站点默认是使用HTTP协议的,打开浏览器在地址处输入“http://本机IP”(不含引号)就可以访问。(如图1)图1第三步:安装证书服务,通过控制面板中的添加/删除程序,选择添加/删除windows组件。在windows组件向导中找到“证书服务”,前面打勾后点“下一步”。(如图2)图2小提示:证书服务有两个子选项“证书服务Web注册支持”和“证书服务颁发机构(CA)”。为了方便这两个功能都需要安装。第四步:系统会弹出“安装证书服务后计算机名和区域成员身份会出现改变,是否继续”的提示,我们选“是”即可。(如图3)图3第五步:在windows组件向导CA类型设置窗口中选择独立根CA。(如图4)图4第六步:CA识别信息处的CA公用名称输入本地计算机的IP地址,如10.91.30.45,其他设置保留默认信息即可。(如图5)图5第七步:输入证书数据库等信息的保存路径,仍然选择默认位置系统目录的system32下的certlog即可。(如图6)图6第八步:下一步后出现“要完成安装,证书服务必须暂时停止IIS服务”的提示。选择“是”后继续。(如图7)图7第九步:开始复制组件文件到本地硬盘。(如图8)图8第十步:安装过程中会出现缺少文件的提示,我们需要将windows2003系统光盘插入光驱中才能继续。(如图9)图9第十一步:继续复制文件完成windows组件的安装工作。(如图10)图10三、配置证书:下面就要为各位读者介绍如何通过IIS证书向导配置我们需要的证书文件。第一步:通过“管理工具”中的IIS管理器启动IIS编辑器。第二步:在默认网站上点鼠标右键选择“属性”。(如图11)图11第三步:在默认网站属性窗口中点“目录安全性”标签,然后在安全通信处点“服务器证书”按钮。(如图12)图12第四步:系统将自动打开WEB服务器证书向导。(如图13)图13第五步:服务器证书处选择“新建证书”,然后下一步继续。(如图14)图14第六步:延迟或立即请求处选择“现在准备证书请求,但稍后发送”。(如图15)图15第七步:设置证书的名称和特定位长,名称保持默认网站即可,在位长处我们通过下拉菜单选择512。(如图16)图16小提示:位长主要用于安全加密,位长越来则越安全,不过传输效率会受到一定的影响,网站性能也受影响。一般来说选择512已经足够了。第八步:输入单位信息,包括单位和部门。(如图17)图17第九步:在站点公用名称窗口输入localhost。(如图18)图18第十步:地理信息随便填写即可。(如图19)图19第十一步:设置证书请求的文件名,我们可以将其保存到桌面以便下面步骤调用方便,保存的文件名为certreq.txt。(如图20)图20第十二步:完成了IIS证书向导配置工作,并按照要求将相应的证书文件保存到桌面。(如图21)图21四、申请证书:配置好IIS所需的证书文件后就要根据该证书内容进行申请了。第一步:打开IE浏览器在地址栏中输入http://10.91.30.45/certsrv/打开证书服务界面。(服务器IP地址为10.91.30.45)(如图22)图22第二步:点“申请一个证书”后继续。第三步:在申请证书界面选择“高级证书申请”。(如图23)图23第四步:在高级证书申请界面选择“使用base64编码的CMC或PKCS#10文件提交一个证书申请,或继订证书申请”。(如图24)图24第五步:用记事本打开上面保存在桌面上的那个certreq.txt文件,将里面的内容全部复制。(如图25)图25第六步:将复制的全部内容粘贴到“提交一个证书申请或续订申请”界面,然后点“提交”按钮。(如图26)图26第七步:成功申请后出现证书挂起提示,说明证书申请已经收到,等待管理员通过申请认证。(如图27)图27至此我们就完成了证书的申请工作,下面要通过刚刚申请的证书认证。五、验证证书:证书申请后还需要服务器的管理员手动颁发该证书才能使之生效。第一步:我们选择任务栏的“开始->程序->管理工具->证书颁发机构”。(如图28)图28第二步:在左边选项中找到“挂起的申请”。(如图29)图29第三步:查看右边的列表,刚才提交的证书申请赫然在目,在待申请的证书上单击鼠标右键,弹出菜单中有“所有任务”一项,接着选择子项“颁发”。这时这个“待定申请”就会转移到“颁发的证书”下面。第四步:在“颁发的证书”下找到刚才那个证书,双击打开。并在“证书属性窗口”的详细信息标签中选择“复制到文件”。(如图30)图30第五步:在“证书导出向导”中,任意选择一种CER格式导出,比如“DER编码二进制”并保存成文件。通过以上五步操作我们的IIS证书就通过了系统管理员的审核,下面就可以通过审核过的证书建立SSL加密站点了。六、配置IIS的SSL安全加密功能我们再次来到IIS设置窗口中启用SSL安全加密功能。第一步:在默认网站属性窗口中点“目录安全性”标签,然后在安全通信处点“服务器证书”按钮。第二步:挂起的证书请求窗口中选择“处理挂起的请求并安装证书”选项。(如图31)图31第三步:通过浏览按钮找到在验证证书第五步中通过证书导出向导刚刚保存的DER编码格式的文件。(如图32)图32第四步:这时我们就可以设置SSL参数了,在安全通信属性中将”要求安全通道SSL”前打上对勾,从而启用了IIS站点的SSL加密功能。(如图33)图33第五步:再次来到默认网站属性中的网站标签,可以看到SSL端口已经配置了端口信息——443。(如图34)图34至此我们就完成了SSL加密站点的配置工作,客户端访问服务器的IIS网站时所浏览的信息是通过加密的,是非常安全的。七、浏览SSL加密站点:服务器上设置完SSL加密站点功能后我们在客户机上通过浏览器访问该站点时就会弹出一个“安全警报”窗口。(如图35)只有信任该证书后才能够正常浏览网站信息。(如图36)图36小提示:在访问通过SSL加密的站点时所输入的地址应该以https://开头,例如本文中应该使用https://10.91.30.45。如果仍然那使用http://10.91.30.45则会出现“该网页必须通过安全频道查看,您要查看的网页要求在地址中使用"https"。禁止访问:要求SSL”的提示。总结:本文介绍的步骤是建立在windows2003+iis6的基础上的,对于windows2000Server或者Windows2000AdvanceServer也是可以在IIS5基础上建立SSL加密功能的,设置步骤基本类似。如果你使用的是Windows2000Professional版本就不用阅读本文了,因为这个版本不支持IIS的SSL访问。
文/那年那月要想成功架设SSL安全站点关键要具备以下几个条件。1、需要从可信的证书办法机构CA获取服务器证书。2、必须在WEB服务器上安装服务器证书。3、必须在WEB服务器上启用SSL功能。4、客户端(浏览器端)必须同WEB服务器信任同一个证书认证机构,即需要安装CA证书。下面,我们对照上面的四部,进行一步一步的操作1:需要从可信的证书办法机构CA获取服务器证书(由于我们是在本地做测试环境,而不是实际操作。所以这里我们自己创建一个证书。如果是实际的操作,需要通过域名商,来获取一个证书,这是要花钱的。)2:必须在WEB服务器上安装服务器证书。打开IIS,找到服务器证书、点击创建自签名证书输入你要创建的证书的名字,我这里取名joeyssl3、必须在WEB服务器上启用SSL功能。接下来,我们新建一个本地测试站点,并且绑定刚才我们创建的证书。打开hosts文件,用于创建一个站点的名称(例如http://webjoeyssl 那么这个webjoeyssl就是我们需要创建的站点名称,我用hosts解析为本地)C:\Windows\System32\drivers\etc在IIS里面绑定目录,绑定http和https在添加的时候,绑定类型,先选择http的类型,虽然这里有https,但是还是首先要保证能通过http能访问网站,毕竟大部分的人都是通过http来打开站点的,只是在某些特别需要加密的地方用到https,我们下一步会绑定https的,这里先不急,除非你整个站点都是https运用,那么这里才只选择https。上面的测试,已经能保证http://webjoeyssl 以及 https://webjoeyssl都可以打开网站了。当然我们也可以强行设置必须要通过ssl才能访问站点(此时,只有https才能访问,而http就无法访问了)但是这样会出现一点问题,你访问http://webjoeyssl ,浏览器会报错4:客户端(浏览器端)必须同WEB服务器信任同一个证书认证机构,即需要安装CA证书。我们打开http://webjoeyssl/ 或者是https://webjoeyssl/ 会提示不安全,点击继续浏览即可。在实际的环境中,你拿到的是一个实际的证书,所以不会产生类似的报告安全证书有问题、
外出参会交流、与站长朋友沟通,到最后总是成为接受吐槽的垃圾桶,无非就是“大搜索的流量越来越没的搞”、“seo干不下去了,我该回家种地了”......难道SEO除了优化网站结构、梳理TDK、研究百度算法就没有其它更高端的事情可以做了么?前几天看到较早接触SEO行业的陈沿舟老师在微信公众帐号椰树(yeshu_chen)上发布了一篇文章《大型网站到了需要做改变的时候》,其中的主要观点非常有价值,特转给各位站长做个分享: 最近有阵时间以来,碰到不止一个大型网站的朋友闲聊说,搜索引擎导入过来的流量越来越少、很苦恼,不知怎么办。搜索引擎这几年的发展,变化非常大。先不讲移动搜索上的影响,PC搜索方面,搜索引擎为了给用户提供更加精准、更快速的答案,开发了很多搜索产品。比如百度的框计算,阿拉丁平台等。原本90%以上的搜索用户就是只会点击第一页的搜索结果。而百度框计算等产品的上线,吸走了更多的用户点击,排名在第一页但不在前三的站,都获得不了多少点击流量,更别说不在第一页的网站了。当然框计算,阿拉丁也不是今天才上线,只不过早期上线的时候,大家还没那么快感觉到影响。现在金刚箍是越来越紧了。从用户体验角度讲,百度框计算是用户体验非常好的产品。而且这个产品本身的理念也是跟搜索引擎的使命是一致的。以百度的机票搜索为例,我输入杭州到北京之后,再点去哪儿的框计算链接,就得到我想要的结果了。我基本不用去理会其他的网页,即使是排名在第一页的网页。 但这对其他没有进入框计算体系的网站来说,却是是一个致命打击。可这就是商业,没有办法。但对于未进入框计算体系的网站来说,也不是没有改变的空间。以资讯类大型网站为例子,传统的资讯网站都是以提供一篇篇的内容资讯为主,我觉得大型网站也是时候对内容形态和内容的组织做一些改变了。搜索引擎特别是百度,很早就在提倡标准化内容。我从用户角度分析过标准化内容,确实是对用户有非常大的价值,有很好的用户体验。大型网站的运营者需要想一下:搜索引擎已经发展了多少年了?传统形式的内容也已经有多少年没有变化了?搜索引擎也已经索引了多少传统形式的内容了。作为一个搜索引擎,它不需要无穷尽的索引数据。其实除了一些时效性信息之外,其他时效性不强的信息,用户真的不需要那么多搜索结果,搜索引擎也不必要索引那么多信息。举个母婴的例子,一个用户搜索:宝宝感冒了怎么办?宝宝感冒了需要做的预防保护处理措施可能就那么几样,除非在未来医学有很大的发展变化。否则,用户需要的信息基本不需要怎么更新。所以,如果以我们传统SEO的大部分的观点来看,你围绕“宝宝感冒了怎么办”再去写一篇所谓的原创文章的话,就是给搜索造垃圾,因为从搜索引擎角度,一些话题可能都已经不存在原创一说。因为从搜索引擎角度讲,可能它已经索引了一亿篇“宝宝感冒了怎么办”的内容了,你能写出跟这一亿篇不一样的内容吗?框计算确实是框走了大部分流量。但大型网站运营者也需要发现这是搜索引擎指的一个方向。搜索引擎的很多变化,除了商业的需求之外,还代表着它对用户需求的理解,对用户体验的认识。同样服务于用户的网站,也必须是紧跟变化。网站运营者需要把握搜索引擎的脉搏,跟着搜索引擎的节奏走。看搜索引擎推出了什么新形态的内容产品,看看在自己的网站上是否也能够基于用户需求,做一些创新内容产品。在以往一篇篇文章、一个个栏目的内容形式上开发一些新的内容产品。或者对内容的再重组。 做到高级的地方,你甚至可以分析一下在你的网站领域方面里搜索引擎在哪一块的信息形式无法满足用户的需求。而你有更好的解决方案的时候,你把这个事情在你得网站上做了,之后你可以找百度谈,你看对块用户需求我们有更好的方式来满足用户需求,能否合作让我们加入阿拉丁。当然,这可能得是一些非商业或者商业不是特别明显的需求。汇总几句话就是:1、搜索引擎流量的获得确实越来越不容易,即使是大网站高权重网站;2、知道搜索引擎网页排名的发展方向趋势(这里不是指算法),把握搜索引擎脉搏,跟着搜索引擎的变化走;3、争取在满足用户需求方面,走在搜索引擎的前面,引导搜索引擎;PS:我的SEO观点之一,是不建议从业者从算法角度去研究SEO。当然从算法角度研究SEO,也是有作用的,但这个需要运用到黑帽领域。因为算法这个事情没有人能说的清楚,我上面举得宝宝感冒文章的例子,从算法角度看也可能不一定对。但我估计差不都是这样。SEO,我是喜欢从用户需求入手,跟着搜索引擎的发展方向动态走。
先说说网站大致情况吧,网站域名注册两个月,历经3次大改版换不同的程序,3次换标题和描述,2月4号降权,3月10号有排名甚至直接有了百度权重1,我很庆幸没有被百度拔毛,下面就和各位分享下网站降权这一个月来我都做了些什么!和大多数新手站长一样,我对网站优化一无所知,唯一会的就是安装个网站程序。还没想好建什么类型的网站,就匆匆的胡乱搭建,我以为只要建好网站了百度就会抓取的到,现在想来真是有些天真。2014年12月27日在淘宝买的注册域名,于是立刻安装了某淘宝客程序,只需要采集就可以,匆匆建好个淘客采集站。一段时间后,感觉不大好,于是第二次改版,一键清空网站,换了个某织梦咨询门户站,用某采集插件采集了大量的内容并且自动伪原创,大概1个月左右百度收录了上千条,后来想不到营利点在哪,采集的内容虽然收了不少,但是基本都是语句不通顺的,给人感觉很不好,换到是我自己来一次就不会再想来第二次了!思来想去,决定再换程序,于2015年1月27号第三次改版,一键清空网站。经过这3次的改版,终于使我慢慢找到了我的目标,用织梦程序做淘客站,注重用户体验,主打女性穿衣搭配技巧,通过发布这些技巧引导大家去购买,从而盈利。我开始用心发帖,并且一个帖子做了大量首页的锚文本,一个月前我并不知道锚文本是什么意思,只是感觉加个链接应该好点吧。正当我满怀憧憬的指望赚大钱的时候,某次和群里交流时,有个基友说:你的网站被K了!被k?我不知所云,他说被k就是site:没有首页,百度降权,不收录。我如被当头棒喝,于是在百度找到网站降权甚至被K原因大致为以下几类:1、被百度判定为优化手段作弊;2、服务器不稳定、速度过慢等因素;3、站内优化过度;4、网站结构过于模仿其他网站;5、网站内容完全采集;6、网站频繁改版;7、频繁换标题;8、被镜像,遭同行外链陷害。9、网站持久不更新,或者更新内容毫无价值。10、网站购买大量的外链,导致权重下降11、网站链向坏邻居12、外链短时间内大量减少总结我的网站有:站内优化过度、网站内容完全采集、网站频繁改版、频繁换标题这几类,特别是新站,百度最关注!我心都凉了半截了,犯了这么多规,这次不给百度大神拔成秃子才怪了,我不甘心这样就完了,死马当活马医,看了网上的降权恢复的经验,我决定坚持一个月试试。在这一个月,我做的工作大致分为:删除所有描文本、百度提交死链、Robots封禁、发原创帖、发外链、换友链。删除所有描文本:挨个删除所有帖子中加过锚文本的链接。百度提交死链:百度site:网站的时候,会出来大量收录的404页面,这样很不利于网站恢复,于是我挨个收集所有的404页面,做成txt格式的文本,上传到网站根目录,提交到百度站长工具--死链提交,等待百度慢慢删除这些页面。Robots封禁:在这段时间,我学会了分析网站日志,直接在百度搜网站日志分析工具,下载网站日志进行分析,结果我发现虽然网站第三次改版过去好几天,但是我还是在日志中看到了大量的404返回状态,于是我百度搜了下解决方法,就是进行Robots封禁,不让蜘蛛再抓取这些404页面,于是我去百度站长工具根据提示,制作Robots规则,把那些死链的目录全部写入禁止抓取,做好后上传网站根目录。一段时间后,再分析日志,果然那些404返回状态已不复存在,说明这个方法还是挺有作用的。发原创帖:每天定时定量在网站发高质量的原创帖子,怎么写这么多的原创帖?我没什么写作能力,去书店买了本和网站主题相符的女性穿衣搭配的书,每天打一点内容到网站,发两三个个帖子的量,这里告诉大家一个方法:把内容页用手机照下来上传到电脑,下载汉王识别软件导入图片,一键识别文字,然后粘贴到网站发帖,非常拉风、快捷。并且每个帖我都不再描文本,怕操作不慎产生更严重后果。外链:这是个很头痛的事情,找不到优质的可以发外链的站,好站点不让发外链,垃圾站发外链收录不好不说,怕发外链影响网站恢复。后来慢慢找到几个优质的可以发外链的站,比如推一把,搜外,落伍者,58同城,百姓网等,但是外链不能太单一,要方泛,尽量涉及多的行业和类型。我找到一个方法:百度domain:同行业的网站,就可以找到他们是在哪些网站发的外链,这样我就获得了更多可以发外链的资源,这样外链差不多没多大问题了,每天发一定数量的外链,坚持每天发、稳定发!换友链:只是偶尔的换几个链接,看有些站长说降权期间换友链会导致网站的情况更糟糕(这种说法我不确定),并且还会连累对方的网站导致降权,谨慎起见所以我只换了2个友链,至于换友链对恢复有没有且实的作用,在这里作为一个新手,我只能说有待证实。每天重复着同样的事情,看着站长数据那边没有任何变化,所有的帖子不收录,实在是件既枯燥又让人很沮丧的事情,不过我还是坚持下来了,因为我不想这么放弃,每天site网站n多次,我想看到奇迹的发生。终于在3月10号的下午,网站恢复了,不但恢复了,让我更意外的是,网站竟然还有了权重了,这是我万万没想到的!站长词条:穿衣打扮网,排名第3页,第27名,目前还在呈上升的趋势,我兴奋的心情溢于言表,我的努力终于没有付之东流。怀着激动的心情,我写下了这篇文章,希望和大家分享我的快乐,同时希望能给各位一些借鉴。说在最后:劝告和我一样的新手朋友在建网站之前一定要想好你要建什么样的网站?你的目的是什么?网站标题一定要想好!建好之后几个月内不到万不得已,千万不要在随便更改网站的标题、结构等东西,据说百度对新站是特别“关照”!网站外链不要用那啥自动外链机器,我刚开始每天用,但是几天后这些外链就基本消失,这说明百度不喜欢这样的外链,也称为垃圾外链,还是老老实实手动发些质量高点的外链吧,现在外链在于质量,不在数量,宁缺毋滥!
别在论坛发广告外链了,跟个贴小广告似的,不但不会提高网站知名度,还会让人觉得你这个企业不权威,就个二流产品,学习一下那些牛逼的人物,做的牛逼的推广方式吧。土豪式柴静掏100万拍雾霾?这是一个很好的选择,这100万是花的值的,如果是某一个绿化、景观等企业老板去做一件这样的事情,我相信他的公司会发展的很壮观。但耗资100万不是每一个老板都能够做到的,方法确实是一个好方法,但不是每一个人都可以做。才艺式你是咋知道知乎的?我的回答是,我是在非诚勿扰上知道知乎的,不记得是什么时候了,知乎COO上非诚勿扰的节目,选了一个自己非常不喜欢的女猪脚,最后被灭灯走人了,那一次,我知道知乎,相信和我一样的人不少,他们的目的也就是为了推广知乎。类似这种还有不少,比如超级课本、木瓜移动等等,前去非诚勿扰的主要目的我不知道,但却对他的企业营销不少,当然,还有其他节目比如:高逸峰的中国达人秀。约架式还记得罗永浩和王自如PK的事情吗?可以说罗永浩的粉丝基本是依靠着吵架吵来的,不用多说,在业界,几乎没有几个人能够用嘴皮子说赢罗永浩,因为罗永浩还有一个称号“罗脑湿”。最后,不管是黑的还是白的,自然会被罗永浩说的条条有理,粉丝自然也就来了。但能够做这种事情的,还得看自己的嘴巴实力,如果扯不过人家,到处PK到处输,那建议还是不要搞下去了,你顶不死。除非你做第二个周鸿祎。小结:当然,上面的方法看起来是开玩笑,但确确实实效果是杠杠滴,毕竟前人做成功的,而且我能够经常在综艺节目上看到有人来推广他们的产品的,并且这些是非常便宜的报名费,甚至一些不需要报名费。如果你硬是没才艺,上不了台,那么下面这些老掉牙的方法还是很适合你,虽然老掉牙了,但效果还是很不错。找竞争对手要用户在微博上,找到你竞争对手的微博,查看他的粉丝,既然关注了他,那么意味着对你这个行业感兴趣,我们试着把这些用户挖掘出来,做互动营销看看,另外在竞争对手的QQ空间里面找到访问的人或者评论点赞留言的人,加他们好友,同样的原理,既然关注你的竞争对手,自然也是对你这类产品感兴趣,加到QQ自然微信也来了。有人说,这样可能人家不会愿意加,其实对上的兴趣,通过率是非常高的,比如:你是一个怀孕妈妈,你肯定会愿意加一个能够传送你怀孕方面经验的人。批量扫本地粉丝同一款产品,自然你会支持老乡的货,原因不是老乡,而是在同城,可以看到公司的实力、情况等,更多的了解这个企业,所以,你的产品可以在本地下手,记得脑白金就是在小地方开始下手的,具体扫本地粉丝方法是这样的。手机号是11位的,都知道的。相信你的通讯录中本地的号码非常多,每个当地手机号码,可以到处9999个本地手机号.看截图:手动填写前两行,按住鼠标往下拉,你就轻松获取9999个本地手机号了。当你手机通讯录中的手机号段用没了,就去58同城、赶集网去找当地的手机号段。手机号码出来了,自然就可以加到微信了。营销性推广啥叫互联网营销,不是卖一件产品才算互联网营销,哪怕用户转载你的文章、点赞、评论均算成功营销,而且此营销比购买你的产品更成功,如果你想把一个东西做大,你必须积累更多帮你转发、点赞、评论的人,而是把这批人全部给卖了。所以说呢,有一个好的内容、图片、活动、视频,来引起用户的关注转发是最成功的推广,效果必须杠杠滴。总结:最近过年这段时间看综艺节目比较多,发现更多参加综艺节目都是为了出名、推广公司,而不是真实的抱着娱乐的心态来参加,随之我才发现,原来这样推广方法效果很好。来源:冯耀宗博客,转载请保留出处!
据DNSAdmin爆料:由于ICANN政策变动,从5月份开始,不再提供免费的域名WHOIS资料隐藏服务,所有免费使用WHOIS隐藏的于4月底自动恢复为真实资料。之后使用WHOIS隐藏服务,将付费。ICANN调整政策,自2015年5月开始,域名服务商不再向用户提供免费的域名WHOIS保护服务,用户须为其付费。公布目前部分域名注册服务商的WHOIS隐藏服务价格如下:GoDaddyOperatingCompany,LLC.提供的域名注册信息保护服务价格为7.99美元/年;eNomInc.提供的域名注册信息保护服务价格为6.00美元/年;NetworkSolutionsLLC.提供的域名注册信息保护服务价格为9.99美元/年;Register.comInc.提供的域名注册信息保护服务价格为11.00美元/年。此项政策开始前,用户依然可以使用免费的WHOIS隐藏服务(如果注册商提供的话);开始后,已有的免费版WHOIS隐藏服务将停止运行,WHOIS资料为公开状态,如果需要隐藏WHOIS信息,则需要付费。尽管国内域名注册商提供免费的隐藏信息服务,但是隐藏个人信息后,域名WHOIS信息则是万网自家的内容,相当于间接给他们打了广告。我们正在密切关注此项政策对某些宣称专门提供“永久免费”的WHOIS资料隐藏服务的注册商(如中国万网、Namesilo等)的反应。
第一种、robots.txt方法搜索引擎默认的遵守robots.txt协议,创建robots.txt文本文件放至网站根目录下,编辑代码如下:User-agent:*Disallow:/通过以上代码,即可告诉搜索引擎不要抓取采取收录本网站,注意慎用如上代码:这将禁止所有搜索引擎访问网站的任何部分。如何只禁止百度搜索引擎收录抓取网页1、编辑robots.txt文件,设计标记为:User-agent:BaiduspiderDisallow:/以上robots文件将实现禁止所有来自百度的抓取。这里说一下百度的user-agent,Baiduspider的user-agent是什么?百度各个产品使用不同的user-agent:产品名称对应user-agent无线搜索Baiduspider图片搜索Baiduspider-image视频搜索Baiduspider-video新闻搜索Baiduspider-news百度搜藏Baiduspider-favo百度联盟Baiduspider-cpro商务搜索Baiduspider-ads网页以及其他搜索Baiduspider你可以根据各产品不同的user-agent设置不同的抓取规则,以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录:User-agent:BaiduspiderDisallow:/User-agent:Baiduspider-imageAllow:/image/请注意:Baiduspider-cpro和Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,这个就需要和百度的人联系才能解决了。如何只禁止Google搜索引擎收录抓取网页,方法如下:编辑robots.txt文件,设计标记为:User-agent:googlebotDisallow:/编辑robots.txt文件搜索引擎默认的遵守robots.txt协议robots.txt文件放在网站根目录下。举例来说,当搜索引擎访问一个网站时,首先会检查该网站根目录中是否存在robots.txt这个文件,如果搜索引擎找到这个文件,它就会根据这个文件里的内容,来确定它抓取的权限的范围。User-agent:该项的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。Disallow:该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如”Disallow:/help”对/help.html和/help/index.html都不允许搜索引擎访问,而”Disallow:/help/”则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在”/robots.txt”文件中,至少要有一条Disallow记录。如果”/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。下面举几个robots.txt用法的例子:User-agent:*Disallow:/禁止所有搜索引擎访问网站的所有部分User-agent:BaiduspiderDisallow:/禁止百度收录全站User-agent:GooglebotDisallow:/禁止Google收录全站User-agent:GooglebotDisallow:User-agent:*Disallow:/禁止除Google外的一切搜索引擎收录全站User-agent:BaiduspiderDisallow:User-agent:*Disallow:/禁止除百度外的一切搜索引擎收录全站User-agent:*Disallow:/css/Disallow:/admin/禁止所有搜索引擎访问某个目录(例如禁止根目录下的admin和css)第二种、网页代码方法在网站首页代码与之间,加入代码,此标记禁止搜索引擎抓取网站并显示网页快照。在网站首页代码与之间,加入即可禁止百度搜索引擎抓取网站并显示网页快照。在网站首页代码与之间,加入即可禁止谷歌搜索引擎抓取网站并显示网页快照。另外当我们的需求很怪异的时候,比如下面这几种情况:1.网站已经加了robots.txt,还能在百度搜索出来?因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过投诉平台反馈请求处理。2.希望网站内容被百度索引但不被保存快照,我该怎么做?Baiduspider遵守互联网metarobots协议。您可以利用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。希望被百度索引,但是不保存网站快照,如下代码解决:如果要禁止所有的搜索引擎保存你网页的快照,那么代码就是下面的:常用的一些代码组合::可以抓取本页,而且可以顺着本页继续索引别的链接:不许抓取本页,但是可以顺着本页抓取索引别的链接:可以抓取本页,但是不许顺着本页抓取索引别的链接:不许抓取本页,也不许顺着本页抓取索引别的链接