您的位置:首页 >聚焦 >

从一个线上问题看 Elasticsearch 数据清洗方式

2022-04-12 15:56:23    来源:程序员客栈

如下问题来自真实场景,用对话方式模拟还原问题解答过程。

小明同学提问:铭毅老湿,如下两个链接,我们底层的数据是带空格的,但是用户输入可能不带空格这种改怎么处理?

http://192.168.1.1/sr/6mm/http://192.168.1.1/sr/6%20mm/

铭毅老湿:上面两个链接是用户的行为?我们不能限制用户的输入是吧?

小明同学:是哦,让用户输入字符加空格或者不加空格去适配写入的数据,这样会显得系统很不“智能”,用户体验会很差。

铭毅老湿:你能关注用户体验,不错!这是程序员必备的思维方式。

小明同学:那怎么解决类似问题呢?

铭毅老湿:其实最简单、最常用的解决方式就是:写入前做好数据清洗,去掉“特殊字符”、“空格”等。

图片来自互联网

小明同学:这个我知道,不就是ETL嘛!包含数据的抽取、转换和加载。ETL着重体现在一些数据清洗转化功能,比如空值处理、规范化数据、数据替换、数据验证等等。。。

咦,我的问题不就是“空值处理”嘛~~

铭毅老湿:那你说说怎么弄?

小明同学:“一脸的疑惑似乎舒缓了一些”,写入前去掉空格。java 里面貌似一行正则代码就能搞定。

str=str.replaceAll("\\s+","");

我明白啦!

铭毅老湿:小明同学别着急!那用户检索怎么搞?

小明同学:原理一样的,前端接收用户请求,做一下清洗处理就可以。我走啦,铭毅老湿。

铭毅老湿:等等~~~你的源头数据从哪里来?

小明同学:MySQL呀。

铭毅老湿:那你是怎么同步数据的?

小明同学:借助 logstash,logstash-input-jdbc 同步插件非常好用,支持各种类型的关系型数据库的同步。我还画了各种类型同步到 Elasticsearch 的各种实现呢?手机上有,你看一下。

不同源数据同步到 Elasticsearch 实现方案

铭毅老湿:不错,总结的很全面。那我问你,你这一行 java 代码往哪里写?

小明同学:我插,这点我忘记了。我想一下,logstash 是用 ruby 语言写的,找一下 ruby 语言如何处理空格就可以了。

小明同学拿起手机查了2分钟,找到啦!

mutate{gsub=>["Animal","\s",""]}

语言不同,和 java 语法都有相通的地方。

我走啦,还是你考虑的周全,铭毅老湿!

铭毅老湿:别着急,那如果不用 logstash 处理,该如何搞定呢?假定你的 logstash 不允许再改了。

小明同学:这个假如不存在的,想改就改,非常受控。嘻嘻~~~,让我想想。。。。。。

与 logstash filter 中转处理环节有个同等重量级的 ingest 预处理借助脚本可以实现,还有个我不大确认,自定义分词能否实现呢?

铭毅老湿:你说的很对,自定义分词包含哪三个环节?如何实现咋实现有思路吗?

小明同学:这个我有点忘记了,得查一下文档。有了,这个图很万能。

Elasticsearch自定义分词,从一个问题说开去

涉及细节不少,我得回去研究一下了。

多谢铭毅老湿~~我真的得走啦,再见!

间隔了一天。。。。。。

第二天,小明带来了他的实现。

铭毅老湿:小明,你讲一下实现思路吧?小明同学:我用了两种方法,

方法一:在自定义分词的 character filter 环节借助 pattern replace 方式将空格转化为没有任何字符,就相当于去掉了空格。方法二:通过 character filter 环节的 Mapping 将空格字符等同于无字符处理,就间接去掉了空格。这两种方法本质都是借助之前给的图的第一个环节:character filter 字符过滤的方式实现的。

这里有可供演示的 DSL,我给你演示一下:

PUTmy-index-000001{"settings":{"analysis":{"filter":{"whitespace_remove":{"type":"pattern_replace","pattern":"","replacement":""}},"analyzer":{"auto_analyzer":{"filter":["lowercase","whitespace_remove"],"type":"custom","tokenizer":"keyword"}}}},"mappings":{"properties":{"title":{"type":"text","analyzer":"auto_analyzer","fields":{"field":{"type":"keyword"}}}}}}POSTmy-index-000001/_bulk{"index":{"_id":1}}{"title":"6mm"}{"index":{"_id":2}}{"title":"6mm"}{"index":{"_id":3}}{"title":"6mm"}GETmy-index-000001/_analyze{"text":["6mm","6mm","6mm"],"analyzer":"auto_analyzer"}##三类数据都能召回POSTmy-index-000001/_search{"query":{"match":{"title":"6mm"}}}

https://www.elastic.co/guide/en/elasticsearch/reference/7.17/analysis-pattern_replace-tokenfilter.html

PUTmy-index-000002{"settings":{"analysis":{"analyzer":{"my_analyzer":{"tokenizer":"standard","char_filter":["my_char_filter"]}},"char_filter":{"my_char_filter":{"type":"mapping","mappings":["""\u0020=>"""]}}}},"mappings":{"properties":{"title":{"type":"text","analyzer":"my_analyzer","fields":{"field":{"type":"keyword"}}}}}}POSTmy-index-000002/_bulk{"index":{"_id":1}}{"title":"6mm"}{"index":{"_id":2}}{"title":"6mm"}{"index":{"_id":3}}{"title":"6mm"}GETmy-index-000002/_analyze{"text":["6mm","6mm","6mm"],"analyzer":"my_analyzer"}##三类数据都能召回POSTmy-index-000002/_search{"query":{"match":{"title":"6mm"}}}

铭毅老湿:不错,不错,考虑的很全面。那小明同学,你能否总结一下:Elasticsearch 数据预处理的方式有哪些?

小明同学:我给你现场画个脑图吧。

铭毅老湿:哎呦,不错哦。。。

未完,待续~~~

推荐1、重磅 | 死磕 Elasticsearch 方法论认知清单(2021年国庆更新版)2、如何从0到1打磨一门 Elasticsearch 线上直播课?(口碑不错)3、如何系统的学习 Elasticsearch ?4、Elasticsearch 预处理没有奇技淫巧,请先用好这一招!

和 20000+ Elastic小伙伴一起学习 ElasticStack!

比同事抢先一步学习进阶干货!

关键词: 数据清洗 用户体验

相关阅读