最新历史版本 :Robots安全配置 返回文档
编辑时间: 内容长度:图片数:目录数: 修改原因:

目录:

1. 概述编辑

1.1 版本

报表服务器版本插件版本
10~11.0V1.0


1.2 应用场景

robots协议也称爬虫协议、爬虫规则等,是指网站可建立一个robots.txt文件来告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,而搜索引擎则通过读取robots.txt文件来识别这个页面是否允许被抓取。但是,这个robots协议不是防火墙,也没有强制执行力,搜索引擎完全可以忽视robots.txt文件去抓取网页的快照 如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又称元数据)。

Finereport自带的”决策平台“本身就是javaweb工程,为了方便员工在公司外使用,有时候公司会部署到外网,有概率被搜索引擎收录,在搜索企业关键词时被显示,造成数据泄露损失。


1.3 功能描述

  • 可直接通过决策系统编辑规则

  • 预设通用搜索引擎配置及默认规则

  • 支持自定义robots规则

  • 支持robots配置内容的备份与恢复

2. 插件介绍编辑

2.1 插件安装

点击下载插件:Robots安全配置

设计器插件安装方法请参见 设计器插件管理

服务器安装插件方法请参见 服务器插件管理


2.2 操作方法

  1. 1.通过系统管理->搜索引擎 进入设置界面

  2. 2.用户自定义规则或通过规则配置增加配置信息

  3. 3.保存成功后可通过 ***/webroot/robots.txt 查看内容



3. 注意事项编辑

1.  robots协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。

2. 在服务端需将/webroot/robots.txt直接映射至ip或域名下  如 **.com/robots.txt 才可被搜索引擎搜索。