您的位置:首页 >聚焦 >

世界微动态丨这个返回的json,有人会解析成df么?

2022-09-15 18:43:05    来源:程序员客栈
点击上方“Python共享之家”,进行关注

回复“资源”即可获赠Python学习资料


(相关资料图)

忽逢青鸟使,邀入赤松家。

大家好,我是皮皮。

一、前言

前几天在Python钻石交流群【心田有垢生荒草】问了一个Python网络爬虫处理的问题,提问截图如下:

代码截图如下:

importrequestsimportjsonurl="https://restapi.amap.com/v3/config/district?parameters"params={"key":"你的key","keywords":"中国","subdistrict":"3",}res=requests.get(url,params)res.textjd=json.loads(res.text)jd

二、实现过程

通过爬虫确实可以获取到数据,只不过里边的层级关系还是挺复杂的,有省市区县乡等层级,所有看上去没有想的那么简单。

后来他自己给了一个看似复杂的代码,如下图所示:

三层嵌套for循环,不过能搞定就行。

完整代码如下:

import requestsimport jsonurl = "https://restapi.amap.com/v3/config/district?parameters" params={"key":"你的key","keywords": "中国","subdistrict": "3",} res = requests.get(url, params)res.textjd = json.loads(res.text) jd["districts"]#%%df = pd.DataFrame()for sh in range(len(jd["districts"][0]["districts"])):# print(sh)jd1 = jd["districts"][0]["districts"][sh]sheng_id = jd1["adcode"]sheng = jd1["name"]sheng_lng = jd1["center"]print(sheng)for shi_num in range(len(jd1["districts"])):shi = jd1["districts"][shi_num]city_id = shi["adcode"]city = shi["name"]city_lnt = shi["center"]print(city)for qu_num in range(len(shi["districts"])):qu = shi["districts"][qu_num]region_id = qu["adcode"]region = qu["name"]region_lng = qu["center"]print(region)df1 = pd.DataFrame([[sheng_id,sheng,sheng_lng,city_id,city,city_lnt,region_id,region,region_lng]],columns=("province_id","province_name","province_lng_lat","city_id","city_name","city_lnt_lat","region_id","region_name","region_lng_lat"))df = df.append(df1)df

三、总结

大家好,我是皮皮。这篇文章主要盘点了一个Python网络爬虫数据处理问题,文中针对该问题给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【心田有垢生荒草】提问,感谢【dcpeng】、【瑜亮老师】给出的思路和代码解析,感谢【冫马讠成】等人参与学习交流。

大家在学习过程中如果有遇到问题,欢迎随时联系我解决(我的微信:pdcfighting),应粉丝要求,我创建了一些高质量的Python付费学习交流群,欢迎大家加入我的Python学习交流群!

有遇到任何问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

-------------------End-------------------

往期精彩文章推荐:

盘点Python网络爬虫入门常见的一个问题

盘点一个使用Python合并excel表格过程中遇到的一个小问题

分享一个playwright网络爬虫实战教程

手把手教你使用在线工具自动生成Python爬虫代码

欢迎大家点赞,留言,转发,转载,感谢大家的相伴与支持

想加入Python学习群请在后台回复【入群】

万水千山总是情,点个【在看】行不行

关键词: 网络爬虫 学习交流 万水千山总是情

相关阅读