ELK 数据安全加固
- 2020 年 3 月 30 日
- 筆記
ELK 安全问题
对于日常使用到的 ELK 组件的系统,默认在 ELK 部署的时候默认都是没有安装配置任何权限管控插件,这对于存储在 es 之中的数据无异于“裸奔”。没有任何防护的话,只要稍微会一点 ELK 知识,网络探测到暴露在域外的 es 数据库后,可以直接对数据进行“增删改查”,这是致命的安全问题。以下为例: 假设我已经知道 119.29.11.49 这台机器上安装有 elasticsearch.

那么,我可以查看它有哪些索引

插入脏数据

删除部分索引

以上的所有操作都不需要任何的授权,只要能远程连上这台机器的 9200 端口,这对数据安全来说是比较大的隐患。
x-pack 简介
这里引用腾讯云的一些介绍,具体可以查看原文 https://cloud.tencent.com/document/product/845/34926
“高级特性,是指 Elasticsearch 官方商业特性(原 X-Pack 商业版插件包含的特性),包含了安全(Security)、SQL、机器学习(Machine Learning)、监控(Monitor)等高级功能,可以为 Elasticsearch 服务的应用开发和运维管理,提供更有力的帮助。”
- 安全(Security)
支持索引和字段级别,读写等细分权限的控制管理,实现数据安全防护、业务访问隔离,向正确的人员授予访问权限,阻止恶意破坏和数据泄露,有效地保障数据安全。
- 监控
集群、节点、索引多个维度,全方位监控,实时了解集群运行情况,辅助应用开发及运维。 这里我们主要用到 security 和监控功能。
启用 x-pack 组件
了解以上 x-pack 的许多特性,那我们怎么使用呢?首先,修改集群的配置 Elasticsearch 配置文件,启用 x-pack 组件的 security 功能。
echo "xpack.security.enabled: true" >> config/elasticsearch.yml
生成安全证书
在 elasticsearch 部署时,需要修改我们机器的 hosts,具体 hosts 如下,这里以两个节点的集群环境为例
# [node1] 的 /etc/hosts 文件(我们需要 kibana.local 和 logstash.local)注意,kibana 因为需要域外访问,所以需要设置 0.0.0.0 0.0.0.0 kibana.local logstash.local 9.77.28.233 node1.elastic.com node1 9.134.72.182 node2.elastic.com node2
# [node2] 的 /etc/hosts 文件(我们这里不需要 kibana.local 和 logstash.local) 9.77.28.233 node1.elastic.com node1 9.134.72.182 node2.elastic.com node2
Elasticsearch 有两个通信协议:TCP 协议通信和 HTTP 层通信。TCP 协议用于 Elasticsearch 节点之间的内部通信,HTTP 协议用于从客户端到 Elasticsearch 集群的通信。我们日常请求 Elasticsearch 都是走的 http 协议,由于 Elasticsearch 集群中的每个节点都是客户端和集群中其他节点的服务器,因此所有传输证书都必须是客户端和服务器证书。
Elasticsearch 6.5 以上 x-pack 已经开源,并且提供了生成证书的工具包,放在 bin 目录,可以生成集群内部节点通信的自签名证书,证书生成命令如下,↵ 代表回车键:
mkdir /data/vb_es/temp/cert_blog ↵ cd /data/vb_es/ # 创建我们需要生成的证书实例文件 vi temp/cert_blog/instance.yml # 将实例信息添加到 yml 文件 instances: - name: 'node1' dns: [ 'node1.elastic.com' ] - name: "node2" dns: [ 'node2.elastic.com' ] - name: 'kibana' dns: [ 'kibana.local' ] - name: 'logstash' dns: [ 'logstash.local' ] ↵ bin/elasticsearch-certutil cert ca --pem --in /data/vb_es/temp/cert_blog/instance.yml --out /data/vb_es/temp/cert_blog/certs.zip ↵ cd /temp/cert_blog ↵ unzip certs.zip -d ./certs Archive: certs.zip creating: ./certs/ca/ inflating: ./certs/ca/ca.crt creating: ./certs/node1/ inflating: ./certs/node1/node1.crt inflating: ./certs/node1/node1.key creating: ./certs/node2/ inflating: ./certs/node2/node2.crt inflating: ./certs/node2/node2.key creating: ./certs/kibana/ inflating: ./certs/kibana/kibana.crt inflating: ./certs/kibana/kibana.key creating: ./certs/logstash/ inflating: ./certs/logstash/logstash.crt inflating: ./certs/logstash/logstash.key
以上,会生成加密通信的 TSL 证书,这里需要将证书复制到各个节点的 config/certs 目录中,如果没有该目录需要先新建目录。
# 复制 node1 节点证书 cp /data/vb_es/temp/cert_blog/certs/ca/ca.crt /data/vb_es/temp/cert_blog/certs/node1/* /data/vb_es/config/certs/ # 复制 node2 节点证书 scp /data/vb_es/temp/cert_blog/certs/ca/ca.crt /data/vb_es/temp/cert_blog/certs/node2/* [email protected]:/data/vb_es/config/certs
节点之间启用 ssl 通信
生成 ssl 证书之后,需要在集群中启用 ssl 通信,修改集群配置。
# node1 配置 echo "node.name: node1" >> config/elasticsearch.yml echo "network.host: node1.elastic.com" >> config/elasticsearch.yml echo "xpack.security.enabled: true" >> config/elasticsearch.yml echo "xpack.security.http.ssl.enabled: true" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.enabled: true" >> config/elasticsearch.yml echo "xpack.security.http.ssl.key: certs/node1.key" >> config/elasticsearch.yml echo "xpack.security.http.ssl.certificate: certs/node1.crt" >> config/elasticsearch.yml echo "xpack.security.http.ssl.certificate_authorities: certs/ca.crt" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.key: certs/node1.key" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.certificate: certs/node1.crt" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.certificate_authorities: certs/ca.crt" >> config/elasticsearch.yml echo "discovery.seed_hosts: [ "node1.elastic.com","node1.elastic.com" ]" >> config/elasticsearch.yml echo "cluster.initial_master_nodes: [ "node1" ]" >> config/elasticsearch.yml # node2 配置 echo "node.name: node2" >> config/elasticsearch.yml echo "network.host: node2.elastic.com" >> config/elasticsearch.yml echo "xpack.security.enabled: true" >> config/elasticsearch.yml echo "xpack.security.http.ssl.enabled: true" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.enabled: true" >> config/elasticsearch.yml echo "xpack.security.http.ssl.key: certs/node2.key" >> config/elasticsearch.yml echo "xpack.security.http.ssl.certificate: certs/node2.crt" >> config/elasticsearch.yml echo "xpack.security.http.ssl.certificate_authorities: certs/ca.crt" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.key: certs/node2.key" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.certificate: certs/node2.crt" >> config/elasticsearch.yml echo "xpack.security.transport.ssl.certificate_authorities: certs/ca.crt" >> config/elasticsearch.yml echo "discovery.seed_hosts: [ "node1.elastic.com" ]" >> config/elasticsearch.yml
修改完以上配置后,依次重启集群中的节点,为了防止集群节点有问题,可以先启动 data node 最后再启动 master node.
设置默认用户密码
重启完成后,elasticsearch 需要新建初始的内部用户,可以指定用户的密码,也可以自动生成,一般推荐自动生成。具体操作命令如下:
# 手动指定用户密码 bin/elasticsearch-setup-passwords interactive -u "https://node1.elastic.com:9200" # 自动生成并设置密码 bin/elasticsearch-setup-passwords auto -u "https://node1.elastic.com:9200"
自动生成的用户密码在最后会有以下提示(为了安全,隐去密码):
Changed password for user apm_system PASSWORD apm_system = xxxx Changed password for user kibana PASSWORD kibana = xxx Changed password for user logstash_system PASSWORD logstash_system = xxx Changed password for user beats_system PASSWORD beats_system = xxx Changed password for user remote_monitoring_user PASSWORD remote_monitoring_user = xxx Changed password for user elastic PASSWORD elastic = xxx
配置 https 协议
对于 HTTP 层通信,Elasticsearch 节点仅用作服务器,因此可以使用服务器证书,即 TLS/SSL 证书不需要启用客户端身份验证。在 elasticsearch.yml 文件中配置如下,这在之前的配置中已经设置,无需重复设置:
echo "xpack.security.http.ssl.enabled: true" >> config/elasticsearch.yml echo "xpack.security.http.ssl.keystore.path: certs/elastic-certificates.p12" >> config/elasticsearch.yml echo "xpack.security.http.ssl.truststore.path: certs/elastic-certificates.p12" >> config/elasticsearch.yml
完成以上操作后,这时候请求 elasticsearch 发现所有的操作都需要授权了,并且还需要访问 https 地址的证书。

我们直接浏览器访问,返回证书不受信任,因为证书是我们自己生成的,并不是证书机构颁发,所以会出现以下告警。

修改 kibana 配置
ELK 中,kibana 也是比较重要的组件。有了 kibana 所有的操作就不需要通过 curl 执行了。所以 kibana 也需要配置相应的安全访问。 因为我们已经使用了自签名 CA,所以我们必须还使用之前生成的 kibana 证书,具体如下:
cp ../vb_es/temp/cert_blog/certs/kibana/* ../vb_es/temp/cert_blog/certs/ca/ca.crt ./config/certs/
现在 Elasticsearch 集群上启用了安全特性,因此必须启用 Kibana 安全特性并配置为通过 HTTPS 向集群进行身份验证。在 Kibana 中创建 config/certs 目录,并将生成的客户端证书复制到目录中,并将以下行添加到我们的 kibana.yml 文件中,修改 kibana 的配置,并重启。用户名密码填写上一步生成的 kibana 账户。
#ensure https echo "server.name: "kibana"" >> config/kibana.yml echo "server.host: "kibana.local"" >> config/kibana.yml echo "server.ssl.enabled: true" >> config/kibana.yml echo "server.ssl.certificate: config/certs/kibana.crt" >> config/kibana.yml echo "server.ssl.key: config/certs/kibana.key" >> config/kibana.yml echo "elasticsearch.hosts: ["https://node1.elastic.com:9200"]" >> config/kibana.yml echo "elasticsearch.username: "kibana"" >> config/kibana.yml echo "elasticsearch.password: "xxxxxxx"" >> config/kibana.yml echo "elasticsearch.ssl.certificateAuthorities: [ "/config/certs/ca.crt" ]" >> config/kibana.yml
修改以上配置,重启 kibana 之后再访问 kibana 地址,已经显示需要登陆。

输入用户名和密码,登陆 kibana
从 kibana 中我们可以监控集群的状态。

查看每个节点的内存,cpu 使用情况

查看节点的 gc 情况,等等,kibana 的监控基本上能满足大部分的集群监控需求

修改 logstash 配置
在数据采集写入过程中我们用到的是 logstash 组件,当我们启用了 https 访问时也需要修改 logstash 的配置,不然会报数据无法写入。

因为我们已经使用了自签名 CA,所以我们必须还使用之前生成的 logstash 证书。修改 logstash 配置,启用 x-pack 监控。
cp ../vb_es/temp/cert_blog/certs/logstash/* ../vb_es/temp/cert_blog/certs/ca/ca.crt ./config/certs/ node.name: logstash.local # 启用 x-pack 监控 xpack.monitoring.enabled: true xpack.monitoring.elasticsearch.username: logstash_system xpack.monitoring.elasticsearch.password: 'xxxx' xpack.monitoring.elasticsearch.hosts: [ 'https://node1.elastic.com:9200' ] xpack.monitoring.elasticsearch.ssl.certificate_authority: config/certs/ca.crt
同时还需要修改数据采集的 config 文件
vim conf/vb.conf output { elasticsearch { hosts => ["https://node1.elastic.com:9200","https://node2.elastic.com:9200"] index => "vb-%{+yyyy.MM.dd}" user => elastic password => xxxxx cacert => 'config/certs/ca.crt' } if [node_type] == "vb-msgcenter" { elasticsearch { hosts => ["https://node1.elastic.com:9200","https://node2.elastic.com:9200"] index => "vb-msgcenter-%{+yyyy.MM.dd}" user => elastic password => xxxxx cacert => 'config/certs/ca.crt' } } if [node_type] == "vb-base-openaccount" { elasticsearch { hosts => ["https://node1.elastic.com:9200","https://node2.elastic.com:9200"] index => "vb-base-openaccount-%{+yyyy.MM.dd}" user => elastic password => xxxxx cacert => 'config/certs/ca.crt' } } }
最后,启动 logstash,可以看到 logstash 已经启动起来并开始采集数据。

同时,我们还可以在 kibana 中监控我们的 logstash 数据采集状态。

用户角色管控
对于数据的访问,我们也需要加固访问权限,根据不同的用户角色设置不同类别的数据查询权限。 登陆 kibana,在左侧的 setting 栏目,设置用户角色。

这里可以设置用户角色能够访问的数据权限以及能够查看的面板。
同时,我们还可以新建低权用户,分配他所属的用户组,具体操作类似用户角色设置。
