合肥python数据分析培训大数据培训怎么学?

大数据培训:大数据处理技术怎么学习?
最近有很多人问我,大数据是怎么学?需要学什么技术以及这些技术的学习顺序是什么?今天有时间我把个问题总结成文章分享给大家。
·大数据处理技术怎么学习呢?首先我们要学习Java语言和Linux操作系统,这两个是学习大数据的基础,学习的顺序不分前后。
Java:大家都知道Java的方向有JavaSE、JavaEE、JavaME,学习大数据要学习那个方向呢?
只需要学习Java的标准版JavaSE就可以了,像Servlet、JSP、Tomcat、Struct、Spring、Hibernate,Mybites都是JavaEE方向的技术在大数据技术里用到的并不多,只需要了解就可以了,当然Java怎么连接数据库还是要知道的,像JDBC一定要掌握一下,有同学说Hibernate或Mybites也能连接数据库啊,为什么不学习一下,我这里不是说学这些不好,而是说学这些可能会用你很多时间,到最后工作中也不常用,我还没看到谁做大数据处理用到这两个东西的,当然你的精力很充足的话,可以学学Hibernate或Mybites的原理,不要只学API,这样可以增加你对Java操作数据库的理解,因为这两个技术的核心就是Java的反射加上JDBC的各种使用。
Linux:因为大数据相关软件都是在Linux上运行的,所以Linux要学习的扎实一些,学好Linux对你快速掌握大数据相关技术会有很大的帮助,能让你更好的理解hadoop、hive、hbase、spark等大数据软件的运行环境和网络环境配置,能少踩很多坑,学会shell就能看懂脚本这样能更容易理解和配置大数据集群。还能让你对以后新出的大数据技术学习起来更快。
·好说完基础了,再说说还需要学习哪些大数据技术,可以按我写的顺序学下去。#
Hadoop:这是现在流行的大数据处理平台几乎已经成为大数据的代名词,所以这个是必学的。Hadoop里面包括几个组件HDFS、MapReduce和YARN,HDFS是存储数据的地方就像我们电脑的硬盘一样文件都存储在这个上面,MapReduce是对数据进行处理计算的,它有个特点就是不管多大的数据只要给它时间它就能把数据跑完,但是时间可能不是很快所以它叫数据的批处理。YARN是体现Hadoop平台概念的重要组件有了它大数据生态体系的其它软件就能在hadoop上运行了,这样就能更好的利用HDFS大存储的优势和节省更多的资源比如我们就不用再单独建一个spark的集群了,让它直接跑在现有的hadoopyarn上面就可以了。其实把Hadoop的这些组件学明白你就能做大数据的处理了,只不过你现在还可能对”大数据”到底有多大还没有个太清楚的概念,听我的别纠结这个。等以后你工作了就会有很多场景遇到几十T/几百T大规模的数据,到时候你就不会觉得数据大真好,越大越有你头疼的。当然别怕处理这么大规模的数据,因为这是你的价值所在,让那些个搞Javaee的php的html5的和DBA的羡慕去吧。
·记住学到这里可以作为你学大数据的一个节点。
Zookeeper:这是个万金油,安装Hadoop的HA的时候就会用到它,以后的Hbase也会用到它。它一般用来存放一些相互协作的信息,这些信息比较小一般不会超过1M,都是使用它的软件对它有依赖,对于我们个人来讲只需要把它安装正确,让它正常的run起来就可以了。
Mysql:我们学习完大数据的处理了,接下来学习学习小数据的处理工具mysql数据库,因为一会装hive的时候要用到,mysql需要掌握到什么层度那?你能在Linux上把它安装好,运行起来,会配置简单的权限,修改root的密码,创建数据库。这里主要的是学习SQL的语法,因为hive的语法和这个非常相似。
Sqoop:这个是用于把Mysql里的数据导入到Hadoop里的。当然你也可以不用这个,直接把Mysql数据表导出成文件再放到HDFS上也是一样的,当然生产环境中使用要注意Mysql的压力。
Hive:这个东西对于会SQL语法的来说就是神器,它能让你处理大数据变的很简单,不会再费劲的编写MapReduce程序。有的人说Pig那?它和Pig差不多掌握一个就可以了。
Oozie:既然学会Hive了,我相信你一定需要这个东西,它可以帮你管理你的Hive或者MapReduce、Spark脚本,还能检查你的程序是否执行正确,出错了给你发报警并能帮你重试程序,最重要的是还能帮你配置任务的依赖关系。我相信你一定会喜欢上它的,不然你看着那一大堆脚本,和密密麻麻的crond是不是有种想屎的感觉。
Hbase:这是Hadoop生态体系中的NOSQL数据库,他的数据是按照key和value的形式存储的并且key是唯一的,所以它能用来做数据的排重,它与MYSQL相比能存储的数据量大很多。所以他常被用于大数据处理完成之后的存储目的地。
Kafka:这是个比较好用的队列工具,队列是干吗的?排队买票你知道不?数据多了同样也需要排队处理,这样与你协作的其它同学不会叫起来,你干吗给我这么多的数据(比如好几百G的文件)我怎么处理得过来,你别怪他因为他不是搞大数据的,你可以跟他讲我把数据放在队列里你使用的时候一个个拿,这样他就不在抱怨了马上灰流流的去优化他的程序去了,因为处理不过来就是他的事情。而不是你给的问题。当然我们也可以利用这个工具来做线上实时数据的入库或入HDFS,这时你可以与一个叫Flume的工具配合使用,它是专门用来提供对数据进行简单处理,并写到各种数据接受方(比如Kafka)的。
Spark:它是用来弥补基于MapReduce处理数据速度上的缺点,它的特点是把数据装载到内存中计算而不是去读慢的要死进化还特别慢的硬盘。特别适合做迭代运算,所以算法流们特别稀饭它。它是用scala编写的。Java语言或者Scala都可以操作它,因为它们都是用JVM的。
·会这些东西你就成为一个专业的大数据开发工程师了,月薪2W都是小毛毛雨
后续提高:当然还是有很有可以提高的地方,比如学习下python,可以用它来编写网络爬虫。这样我们就可以自己造数据了,网络上的各种数据你高兴都可以下载到你的集群上去处理。
最后再学习下推荐、分类等算法的原理这样你能更好的与算法工程师打交通。这样你的公司就更离不开你了,大家都会对你喜欢的不要不要的。
大数据培训:http://www.hwua.com
课程热线:400-156-8880
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
Oracle OAEC是甲骨文公司在中国重要的发展布局之一。Java培训,PHP培训,UI培训
海文it培训机构,四个月学习,高薪就业!
今日搜狐热点后使用快捷导航没有帐号?
只需一步,快速开始
请完成以下验证码
请完成以下验证码
主题帖子荣誉
新鱼友, 积分 35, 距离下一级还需 65 积分
新鱼友, 积分 35, 距离下一级还需 65 积分
查看: 2226|回复: 44
& 累计签到:66 天连续签到:1 天
马上注册加入鱼C,享用更多服务吧^_^
才可以下载或查看,没有帐号?
本帖最后由 zhangjuying2000 于
19:10 编辑
大数据时代,哪些课程最受欢迎?
大数据时代衍生出大数据技术,包括数据的采集、存取、清洗、挖掘、可视化等等,哪些课程或者哪些方向最受欢迎呢?本文以ppv课(国内领先的大数据学习社区www.ppvke.com)网站为例,该网站的免费课程频道有着较为齐全课程分类,并且积累了一定的用户学习数据。通过python软件爬取所有课程的学习人数、时长、类别等网络数据,可以一窥当前大数据时代学习群体的培训需求。
(1)导入相关库并构建网页解析函数
装入网页解析、多线程、数值计算、数据可视化等python安装库,并构造网页解析函数,在函数中设置模仿浏览器登录的head方式:
import urllib.request
from lxml import etree
import pandas as pd
from multiprocessing.dummy import Pool as threadspool
import urllib,re,time
import numpy as np
import matplotlib.pyplot as plt
start_url='http://www.ppvke.com/class/select'
url_host = 'http://www.ppvke.com/class/select?topicid='
def url_open(url):#构建网页解析函数
& & req = urllib.request.Request(url)
& & req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0')
& & page = urllib.request.urlopen(req)#模仿浏览器登录
& & txt = page.read().decode('utf-8')
& & htm = etree.HTML(txt)
& & return htm
(2)构建每一类目链接获取函数
获取每个类目的链接,也就是图1中机器学习、数据挖掘等14个类目的链接,构建每个类目链接获取的函数:
def get_class_link(url):#获取每个类目的链接
& & htm = url_open(url)
& & class_topics = htm.xpath('/html/body/div[2]/div[1]/div[1]/dl[1]/dd/a/text()')[1:-1]#对课程类目的网址进行解析,并且去除一头一尾“全部”与“会员课程”
& & class_link =[]
& & for class_topic in class_topics:
& && &&&class_link.append(url_host + urllib.parse.quote(class_topic))#主要解决部分网址包含中文字符无法解码的问题
& & return class_link
在免费课程主页:http://www.ppvke.com/class/select,点击对应的课程类目右键审查元素就可以获取相应的链接,该网站课程类目链接采取这样的方式:http://www.ppvke.com/class/select?topicid=机器学习,即在主页的基础上加入topicid=的形式。在这里需要注意,部分类目包含中文字符,如机器学习、数据挖掘、R语言等,在python网页解析中会出现“ASCII码无法识别的问题”,导致程序运行不出,这时需要加入urllib.parse.quote命令进行编码,使得中文字符识别出来,(英文字符在此命令下不受影响)。
(3)构建全部链接获取函数,解决翻页问题
再次,构建全部链接抓取函数。由于部分课程类目不止一页,需要对翻页的链接进行抓取,这时候我们需要解决两个问题:一是每个类目有多少翻页?二是翻页链接的形式是什么样的,有无规律可循?
在课程的底端可以看到每个类目的页数:
对于多页的课程类目链接形式为(以Excel为例):
http://www.ppvke.com/class/select?topicid=Excel&job=&grade=&page=&page=2
可以看到在课程类目的链接上加入了“&job=&grade=&page=&page=”这种形式。根据这两个问题的表现形式我们找到了解决方案,对于每个类目的页数问题,通过抓取“上一页”、“下一页”这个框中的列表长度来判断,如只有第一页保持原有链接不变,如有2个以上页面,则在原始链接的列表中加入page=2/3….的链接形式。最后封装成一个列表。
def get_all_links(class_link):#每个课程类目有不止一页,因此链接也有多个,因此基于类目链接构建全部链接函数
& & htm = url_open(class_link)
& & page_num=htm.xpath('/html/body/div[2]/div[1]/div[2]/div[3]/div/a/text()')
& & urls = [class_link]
& & if len(page_num)&2:
& && &&&for i in range(2,len(page_num)):
& && && && &urls.append(class_link + '&job=&grade=&page=&page='+str(i))#将翻页链接依次加入类目链接中
& && &&&pass
& & return urls
(4)构建抓取信息函数
接下来就开始抓取每个页面的信息,并采用pandas.DataFrame的数据框,采用Xpath方式抓取。
def get_info(url):#抓取每个链接的信息,包括课程名称、时长、学习人数、类目
& & htm = url_open(url)
& & titles = htm.xpath('/html/body/div[2]/div[1]/div[2]/div[2]/ul/li/h3/a/text()')
& & times= htm.xpath('/html/body/div[2]/div[1]/div[2]/div[2]/ul/li/p[1]/text()')
& & numbers = htm.xpath('/html/body/div[2]/div[1]/div[2]/div[2]/ul/li/p[1]/span/text()')
& & topic = htm.xpath('/html/body/div[2]/div[1]/div[1]/dl[1]/dd[@class=&cur&]/a/text()')
& & topics = topic * len(titles) #获取每个课程的类目变量,并且与每个课程一一对应,最好与其他变量在同一页面一起抓取
& & frame = pd.DataFrame([topics,titles,times,numbers], index=['topics','titles','times','numbers'])#转入数据列表DataFrame
& & frame = frame.T
& & return frame
(5)导入网页,爬取信息
构造完相关函数后,将参数代入,爬取所有类目下所有课程的数据信息:
if __name__ == '__main__':
& & time.sleep(2)
& & class_links = get_class_link(start_url)#获取类目链接
& & pool = threadspool(2)
& & urls = list(map(get_all_links,class_links))#多线程抓取每个类目的所有链接
& & url_links = []
& & for x in urls:
& && &&&url_links.extend(x) #将所有链接装进一个list
& & frame_list = list(map(get_info,url_links))#数据框列表
& & a,b,c,d = [], [], [], []
& & [(a.extend(x['topics'])) for x in frame_list]
& & [(b.extend(x['titles'])) for x in frame_list]
& & [(c.extend(x['times'])) for x in frame_list]
& & [(d.extend(x['numbers'])) for x in frame_list]
& & c1 = [int(re.findall(r&\d+& ,txt)[0]) for txt in c]
& & d1 = [int(re.findall(r&\d+& ,txt)[0]) for txt in d] #采用正则表达式提取数字,并转化为整型,也算是数据清洗
& & frame = pd.DataFrame([a,b,c1,d1], index=['topics','titles','times','numbers'])#将数据整合
& & frame = frame.T
(6)数据截取、分组及可视化
通过数据截取、分组计算、画图就可以得到每个类目平均的学习人数:
游客,如果您要查看本帖隐藏内容请
如图,概率与统计课程的平均学习人数最多,达到3000以上,这说明学习者对大数据的基础统计理论的学习需求较大;其次是R语言、Mysql、SPSS等,说明了大数据常用的软件与数据库的学习需求也较高。
分类比较,比如在大数据统计软件方面的平均学习人数上,由上图可以看出,R语言&SPSS&Python&SAS&Excel&Matlab,后三者在大数据统计技术上已稍显落后(spss在开发出数据挖掘模块),且R、Python是目前大数据分析下最火的两大统计软件,相应的学习需求也高;数据库方面:Mysql&Nosql&Sql&Oracle,Mysql平均学习人数最多且远远超过其他数据库,作为大数据目前最常用的数据库存储工具,因此会获得如此高的关注度;理论方面:概率统计&机器学习&数据挖掘,说明学习者对基础理论的需求还是比较高,由于大数据技术是计算机与数据统计等内容的结合,很多计算机从业者缺乏统计理论知识以及初学者也要从最基础的理论学起,这导致概率与统计的学习需求遥遥领先,从侧面也说明了在大数据领域统计理论的缺失或不足较为明显。对于大数据里较火的软件平台——Hadoop,平均学习人数处于不高不低的状态,这是由于大多数大数据学习者还处于初级水平,对Hadoop这一高级应用技术还缺乏了解,所以学习需求没那么高。
感谢楼主无私奉献!
& 累计签到:26 天连续签到:1 天
看看怎么玩
& 累计签到:1 天连续签到:1 天
& 累计签到:547 天连续签到:75 天
你改成鱼C论坛,爬一下试试
& 累计签到:63 天连续签到:1 天
关于Xpath 这块 大神能再讲讲吗?
“采用pandas.DataFrame的数据框,采用Xpath方式抓取”
& 累计签到:23 天连续签到:1 天
& 累计签到:66 天连续签到:1 天
你改成鱼C论坛,爬一下试试
,有空试试吧,我也是新手,所以最开始选了这个分类比较清楚,数据量也不大的网站
& 累计签到:66 天连续签到:1 天
关于Xpath 这块 大神能再讲讲吗?
“采用pandas.DataFrame的数据框,采用Xpath方式抓取”
与BeautifulSoup类似,都是有右键点击元素,然后copy路径,来解析的,关键就是语法不一样
& 累计签到:63 天连续签到:1 天
与BeautifulSoup类似,都是有右键点击元素,然后copy路径,来解析的,关键就是语法不一样
哈哈哈! 关于BeautifulSoup ,还能继续讲讲嘛
& 累计签到:63 天连续签到:1 天
自己搜索查看ing,大神若有空,指教更是感谢!
& 累计签到:66 天连续签到:1 天
哈哈哈! 关于BeautifulSoup ,还能继续讲讲嘛
这个不好讲呀,关键还是动手去学,beautifulsoup 是 HTML 解析库,XPath 是 HTML / XML 查询语言
要弄懂这个,我建议你还是学一些简单的网页结构,比如&title&&/title& class
& 累计签到:63 天连续签到:1 天
这个不好讲呀,关键还是动手去学,beautifulsoup 是 HTML 解析库,XPath 是 HTML / XML 查询语言
要弄懂 ...
一个个来吧~ 慢慢学ing
& 累计签到:16 天连续签到:1 天
小甲鱼的视频,我的最爱!
& 累计签到:27 天连续签到:1 天
From FishC Mobile
学习了学习了
& 累计签到:96 天连续签到:1 天
感谢楼主无私奉献!
& 尚未签到
3qqqqqqqqqqqqqqqqqqqqqqqqqqq
& 累计签到:50 天连续签到:1 天
& 尚未签到
头像被屏蔽
& 累计签到:72 天连续签到:9 天
提示: 作者被禁止或删除 内容自动屏蔽
& 尚未签到
小甲鱼强烈推荐
给我一节课的时间,帮你从繁琐的工作中解脱出来!
- - - - - - - - - - - -
极客Python,新课程!!
特效不会给你基本工资,但却能让你升职加薪
- - - - - - - - - - - -
有备无患,念念不忘
移动客户端下载(未启用)
微信公众号
Powered by
Copyright &
&&& All Rights Reserved.扫一扫,上赶集群组
扫码使用“赶集群组”
交友&&寻爱&&找工作
聊天&&聚会&&不寂寞
合肥赶集 &
很抱歉,您查看的信息已过期~
合肥python前景怎么样
发布时间:06-06 08:22信息编号:
python前景怎么样
兄弟连python培训 【兄弟连教育】专注IT培训11年,学习5个月包就业! 毕业拿高薪!兄弟连Python培训,0学费入学,毕业后还款。让学习零负担!免费试听欢迎联系赵老师电话 9/ 131-。QQ。
  Python凭借多种优势,如优雅、明确、简单,受到了程序员的欢迎。同时,python还有效减轻了服务器运维的压力,大大提高了运维的效率。Python是一种高级语言,却简单易学,因此,许多有转行需求或是大学毕业生都选择了python培训,需要通过短期的学习,成为python程序员。那么,在进入python培训前,对python应该了解哪些呢?
  1.Python能够胜任大数据吗?
  Python很适合做大数据相关的分析,内置的C编译的模块能应对常见的操作,个别极端的算法建议用C重写相关模块。Python本身的特点更多的是高效率的开发和简单的维护,速度交给C去吧,更多的问题其实出自写代码的人没有更好的使用,而不是效率不够高。比如排序,本来Python有非常高效的内置C编译的模块,却非要自己写算法,这样的结果不慢都是奇怪的。另外还要看需求是CPU密集型,还是IO密集型,如果是CPU密集型建议这部分操作由C实现,IO密集型的效率不会因为Python而有多少改变。C的效率是高,但框架搭起来也费劲,所以还是结合着来吧,也因此,Python被称为胶水语言。
  2.Python是否可以访问常见的数据库?
  可以,Python可以访问常见的各种数据库,如Oracle、MySQL、Vertica、SQLServer等,加载相应的模块即可,模块列表如下:
  Oracle:cx_Oracle
  MySQL:MySQLdb
  3.Python适用于哪些应用场景?
  这个没有固定答案,很多人都说Python不适合开发GUI的程序,但Python自己的IDE——IDEL和第三方的IDE——Eric就是Python写的。目前看到的更多的人是拿来写Web,使用如Django、web.py框架,没记错Flask也是。也有一个情况用的比较多,用Python当胶水,与各种语言结合,共同完成某软件功能,注意观察也许你会发现在安装一些软件的时候会有Python的身影。我个人还拿Python模拟过端口转发和DNS服务等,所以真的是要看真么用,而不是能怎么用。另外大数据分析Python也是比较适合的,从载入到分析,再到保存结果等,Python有一整套的模块应对。
  4.Python是否可以完全代替Shell?
  完全可以,Shell的功能Python均可实现,而且代码量更少、结构更优、可阅读性更好,而Python可实现的功能Shell却不一定能,如运维中会用到的用于网络通信的Socket模块、用于WEB的Django框架、用于性能采集的psutil模块等,而且Shell对操作系统的命令依赖性较强,Python可在更大程度上规避。在一个Shell的IDE是个很大的问题,虽然Python的原生IDE不怎么样,但第三方的IDE还是功能十分强大的,虽然不能和微软的Virtual Studio相媲美,但也是能完全满足Python的开发需求的。再说下Python的效率问题,Python支持多进程、多线程以及协程(比线程更小一级),程序并发度是在Shell之上的。Python的核心模块基本都是用C实现的,因此效率更高。如有必要也可能将需要用Python实现的Python模块用C重写以提高效率,当然也可以直接用C Python,一个直接完全用C实现的Python解释器。
  5.如何利用Python提高开发效率?
  因为Python很多底层的东西不用自己写,模块资源丰富,运用得当开发效率当然会提升,而且各种框架也为快速开发提供了基础。
在python培训中,你会不断深入了解到python更具体更深入的特点,python有很多优势,可以为开发带来诸多便捷,但需要在以后的学习中,不断总结,多加练习,才能把python这门语言掌握的更好。
你在寻找的同类课程
地址:高新不限
地址:高新不限
地址:高新不限
地址:高新不限
地址:高新不限
地址:高新不限
var $popBar = $(html);
$popBar.hide();
$('body').prepend($popBar);
GJ.setFixed({
selector: '.popright-bar',
position: 'bottom-right',
vSpace: 0,
hSpace: 0,
relative: 'content',
contentWidth: 980,
//默认内容宽度
width: 19,
height: 230,
smallWinHid: false,
//初次打开页面没有足够空间,是否显示广告
closeBtnPos: 'top-right',
showCloseBtn: false
$('.pop-mid').click(function() {
window.scroll(0, 0);
$(window).scroll(function() {
var $toTop = $('.pop-mid');
if (timer) {
timer.cancel();
timer = GJ.later(function() {
var pos = GJ.getViewPort();
if (pos.top > 0) {
$toTop.show();
$toTop.hide();
定向推广(按点击付费)
•&无点击不收费,免费获得展示机会
•&页面右侧、底部独立展示区域
•&排除无效点击,每次点击都物有所值
•&点击记录可查询,深入挖掘潜在用户python大数据短期培训是如何学习的?_百度知道
python大数据短期培训是如何学习的?
我有更好的答案
一般五个月左右,每家有所不同,而且和你的自身基础情况都有很大的关系,没基础的话五个月也就足够了,可以去魔据了解一下还不错。
采纳率:100%
为您推荐:
其他类似问题
您可能关注的内容
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。看过这8个问答的Python开发都知道怎么学习大数据
&带你学习大数据
  问:使用不同的编程语言对数据处理的性能有多大影响?(2年Python开发提问)
  答:根据我的经验来看,使用C语言的效率确实要比Python高一点,但差别不是很大。但Python程序的维护成本比C低,在实际应用中可以提高硬件的数量还弥补这个确点。
  问:想入门机器学习,需要了解什么知识?(1年java开发提问)
  答:入门的话可以看一下孙老师的《大数据实战手册》,如果想学的深一点,微积分、概率这些数学知识要掌握到位。各种聚类分类算法也要掌握,这个比较好懂,就算不懂微积分也可以明白。
  看过这8个问答的Python开发都知道了怎么学习大数据
  问:用到的算法模型是自己设计,还是有开源的算法可以使用?(2年Python开发提问)
  答:目前为止,开源的工具已经能解决大部分问题,算法一般不用调整。优化的时候有可能需要根据自己的需求做修改。
  问:深度学习的话数学基础很重要吗?(5年java开发提问)
  答:数学基础对深度学习还是很重要的,很多书籍里讲解算法都有数学公式推导,至少需要能看懂公式是什么意思,就目前做Hadoop开发的话也没有非常高的要求。
  问:我现在就职的公司不大,数据量也才百万级。我想知道您对数据分析的理解和如何正确利用分析的结果。我想在大数据方向有所发展,希望能在学习路线上给点建议。(3年Python开发提问)
  答:大数据的真实含义不是数据量大,而是具有丰富的数据维度。数据的价值不在于多在于能够挖掘出有价值的信息从而消除不确定性,降低试错成本。
  入门话,不妨看一下《Hadoop大数据实战手册》这里面对大数据和Hadoop生态圈做了比较详细的介绍,用来入门很不错。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。}

我要回帖

更多关于 python数据科学指南 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信