1. 概述
1.1 版本
报表服务器版本 | 插件版本 |
---|---|
10~11.0 | V1.0 |
1.2 应用场景
robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照。 如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。
Finereport自带的”决策平台“本身就是javaweb工程,为了方便员工在公司外使用,有时候公司会部署到外网,有概率被搜索引擎收录,在搜索企业关键词时被显示,造成数据泄露损失。
1.3 功能描述
可直接通过决策系统编辑规则
预设通用搜索引擎配置及默认规则
支持自定义robots规则
支持robots配置内容的备份与恢复
2. 插件介绍
2.1 插件安装
点击下载插件:Robots安全配置
设计器插件安装方法请参见 设计器插件管理
服务器安装插件方法请参见 服务器插件管理
2.2 操作方法
1.通过系统管理->搜索引擎 进入设置界面
2.用户自定义规则或通过规则配置增加配置信息
3.保存成功后可通过 ***/webroot/robots.txt 查看内容
3. 注意事项
1. robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。
2. 在服务端需将/webroot/robots.txt直接映射至ip或域名下 如 **.com/robots.txt 才可被搜索引擎搜索。