59178(722339)
?
Python是什么
Python是闻名的“龟叔”Guido van Rossum在1989年圣诞节期间,为了打发无聊的圣诞节而编写的一个编程言语。
创始人Guido van Rossum是BBC出品英剧Monty Python’s Flying Circus(中文:蒙提·派森的飞翔马戏团)的疯狂粉丝,因此将自己发明的这门编程言语命名为Python。
人生苦短,我用python,翻译自"Life is short, you need Python"
Python英式发音:/?pa?θ?n/ ,中文相似‘拍森’。而美式发音:/?pa?θɑ?n/,中文相似‘拍赏’。我看麻省理工授课教授读的是‘拍赏’,我觉得国内大多是读‘拍森’吧。
2017年python排榜首也无可争议,比较AI榜首言语,在当下人工智能大数据大火的情况下,python无愧榜首言语的称谓,至于C、C++、java都是万年的老大哥了,在代码量比较方面,小编信任java肯定是完爆其它言语的。
不过从这一年的编程言语盛行趋势看,java依然是传达最多的,比较不管app、web、云核算都离不开,而其相对python而言,学习途径更困难一点,想要转行编程,并且追逐潮流,python已然是最佳言语。
许多大型网站便是用Python开发的,国内:豆瓣、搜狐、金山、腾讯、隆重、网易、百度、阿里、淘宝、热酷、马铃薯、新浪、果壳…; 国外:谷歌、NASA、YouTube、Facebook、工业光魔、红帽…
Python将被归入高考内容
浙江省信息技术课程改革方案现已出台,Python确认进入浙江省信息技术高考,从2018年起浙江省信息技术教材编程言语将会从vb更换为Python。其实不止浙江,教育大省北京和山东也确认要把Python编程根底归入信息技术课程和高考的内容体系,Python言语课程化也将成为孩子学习的一种趋势。特别山东省最新出书的小学信息技术六年级教材也参加了Python内容,小学生都开端触摸Python言语了!!
再不学习,又要被小学生完爆了。。。
?
Python入门教程
微信大众号:Python中文社区微信跳一跳的python外挂项目: 关于有言语根底的童鞋来说,学习python是很easy的事,并且很funny500G 百度云Python入门材料免费送,大众号回复:python入门?Python能做什么
网络爬虫Web运用开发体系网络运维科学与数字核算图形界面开发网络编程自然言语处理(NLP)人工智能区块链多不胜举。。。Python入门爬虫
这是我的榜首个python项目,在这里与我们共享出来~
需求我们现在正在开发一款产品其功用大致是:用户收到短信如:购买了电影票或许火车票机票之类的工作。然后app读取短信,解析短信,获取时刻地址,然后后台主动树立一个备忘录,在工作开端前1小时提示用户。规划开端我们将解析的功用放在了服务端,可是后来考虑到用户隐私问题。后来将解析功用放到了app端,服务端只担任搜集数据,然后将新数据发送给app端。关于服务端首要是别离出两个功用,一、呼应app端恳求回来数据。二、爬取数据,存入数据库。呼应恳求回来数据运用java来做,而爬取数据存入数据库运用python来做,这样别离运用不同言语来做是因为这两种言语各有优势,java功率比python高些,适合做web端,而爬取数据并不是太寻求功能且python言语和很多的库适合做爬虫。代码本项目运用python3的版别源码可在我的码云上下载: 了解这个项目你只需求有简略的python根底,能了解python语法就能够。其实我自己也是python没学完,然后就开端写,遇到问题就百度,边做边学这样才不至于很单调,因为python能够做一些很有意思的工作,比方模仿接连登录挣积分,比方我最近在写一个预订榜样出行车子的python脚本。引荐看廖雪峰的python入门教程首要带我们看看我的目录结构,开端我打算是界说一个十分好十分全的标准,后来才发现因为自己不熟悉结构,而是刚入门等级,所以就抛弃了。从简而入:?下面我们依照上图中的次序,从上往下一个一个文件的解说init.py包的标识文件,python包便是文件夹,当改文件夹下有一个init.py文件后它就成为一个package,我在这个包中引进一些py供其他py调用。init.py
# -*- coding: UTF-8 -*- # import need manager module import MongoUtil import FileUtil import conf_dev import conf_test import scratch_airport_name import scratch_flight_number import scratch_movie_name import scratch_train_number import scratch_train_station import MainUtil下面两个是配置文件,榜首个是开发环境的(windows),第二个是测验环境的(linux),然后再依据不同体系启用不同的配置文件
conf_dev.py
# -*- coding: UTF-8 -*- # the configuration file of develop environment # path configure data_root_path = 'E:/APK98_GNBJ_SMARTSERVER/Proj-gionee-data/smart/data' # mongodb configure user = "cmc" pwd = "123456" server = "localhost" port = "27017" db_name = "smartdb"conf_test.py
# -*- coding: UTF-8 -*- # the configuration file of test environment #path configure data_root_path = '/data/app/smart/data' #mongodb configure user = "smart" pwd = "123456" server = "10.8.0.30" port = "27017" db_name = "smartdb"下面文件是一个util文件,首要是读取原文件的内容,还有将新内容写入原文件。
FileUtil.py
# -*- coding: UTF-8 -*- import conf_dev import conf_test import platform # configure Multi-confronment # 判别当时体系,并引进相对的配置文件platform_os = platform.system() config = conf_dev if (platform_os == 'Linux'): config = conf_test # path data_root_path = config.data_root_path # load old data def read(resources_file_path, encode='utf-8'): file_path = data_root_path + resources_file_path outputs = [] for line in open(file_path, encoding=encode): if not line.startswith("//"): outputs.append(line.strip('\n').split(',')[-1]) return outputs # append new data to file from scratch def append(resources_file_path, data, encode='utf-8'): file_path = data_root_path + resources_file_path with open(file_path, 'a', encoding=encode) as f: f.write(data) f.close下面这个main办法操控着履行流程,其他的履行办法调用这个main办法
MainUtil.py
# -*- coding: UTF-8 -*- import sys from datetime import datetime import MongoUtil import FileUtil # @param resources_file_path 资源文件的path # @param base_url 爬取的衔接 # @param scratch_func 爬取的办法 def main(resources_file_path, base_url, scratch_func): old_data = FileUtil.read(resources_file_path) #读取原资源 new_data = scratch_func(base_url, old_data) #爬取新资源 if new_data: #假如新数据不为空 date_new_data = "//" + datetime.now().strftime('%Y-%m-%d') + "\n" + "\n".join(new_data) + "\n" #在新数据前面加上当时日期 FileUtil.append(resources_file_path, date_new_data) #将新数据追加到文件中 MongoUtil.insert(resources_file_path, date_new_data) #将新数据刺进到mongodb数据库中 else: #假如新数据为空,则打印日志 print(datetime.now().strftime('%Y-%m-%d %H:%M:%S'), '----', getattr(scratch_func, '__name__'), ": nothing to update ")将更新的内容刺进mongodb中
MongoUtil.py
# -*- coding: UTF-8 -*- import platform from pymongo import MongoClient from datetime import datetime, timedelta, timezone import conf_dev import conf_test # configure Multi-confronment platform_os = platform.system() config = conf_dev if (platform_os == 'Linux'): config = conf_test # mongodb uri = 'mongodb://' + config.user + ':' + config.pwd + '@' + config.server + ':' + config.port + '/' + config.db_name # 将数据写入mongodb # @author chenmc # @param uri connect to mongodb # @path save mongodb field # @data save mongodb field # @operation save mongodb field default value 'append' # @date 2017/12/07 16:30 # 先在mongodb中刺进一条自增数据 db.sequence.insert({ "_id" : "version","seq" : 1}) def insert(path, data, operation='append'): client = MongoClient(uri) resources = client.smartdb.resources sequence = client.smartdb.sequence seq = sequence.find_one({"_id": "version"})["seq"] #获取自增id sequence.update_one({"_id": "version"}, {"$inc": {"seq": 1}}) #自增id+1 post_data = {"_class": "com.gionee.smart.domain.entity.Resources", "version": seq, "path": path, "content": data, "status": "enable", "operation": operation, "createtime": datetime.now(timezone(timedelta(hours=8)))} resources.insert(post_data) #刺进数据项目引进的第三方库,可运用pip install -r requirements.txt下载第三方库
requirements.txt
# need to install module# need to install module bs4 pymongo requests json下面真实的履行办法来了,这五个py别离表明爬取五种信息:机场名、航班号、电影名、列车号、列车站。他们的结构都差不多,如下:
榜首部分:界说查找的url;第二部分:获取并与旧数据比较,回来新数据;第三部分:main办法,履行写入新数据到文件和mongodb中;scratch_airport_name.py:爬取全国机场
# -*- coding: UTF-8 -*- import requests import bs4 import json import MainUtil resources_file_path = '/resources/airplane/airportNameList.ini' scratch_url_old = 'data.variflight/profiles/profilesapi/search' scratch_url = 'data.variflight/analytics/codeapi/initialList' get_city_url = 'data.variflight/profiles/Airports/%s' #传入查找网页的url和旧数据,然后本办法会比对原数据中是否有新的条目,假如有则不参加,假如没有则重新参加,最终回来新数据def scratch_airport_name(scratch_url, old_airports): new_airports = [] data = requests.get(scratch_url).text all_airport_json = json.loads(data)['data'] for airport_by_word in all_airport_json.values(): for airport in airport_by_word: if airport['fn'] not in old_airports: get_city_uri = get_city_url % airport['id'] data2 = requests.get(get_city_uri).text soup = bs4.BeautifulSoup(data2, "html.parser") city = soup.find('span', text="城市").next_sibling.text new_airports.append(city + ',' + airport['fn']) return new_airports #main办法,履行这个py,默许调用main办法,相当于java的mainif __name__ == '__main__': MainUtil.main(resources_file_path, scratch_url, scratch_airport_name)scratch_flight_number.py:爬取全国航班号
#!/usr/bin/python # -*- coding: UTF-8 -*- import requests import bs4 import MainUtil resources_file_path = '/resources/airplane/flightNameList.ini' scratch_url = 'variflight/sitemap.html?AE71649A58c77=' def scratch_flight_number(scratch_url, old_flights): new_flights = [] data = requests.get(scratch_url).text soup = bs4.BeautifulSoup(data, "html.parser") a_flights = soup.find('div', class_='list').find_all('a', recursive=False) for flight in a_flights: if flight.text not in old_flights and flight.text != '国内航段列表': new_flights.append(flight.text) return new_flights if __name__ == '__main__': MainUtil.main(resources_file_path, scratch_url, scratch_flight_number)scratch_movie_name.py:爬取最近上映的电影
#!/usr/bin/python # -*- coding: UTF-8 -*- import re import requests import bs4 import json import MainUtil # 相对途径,也是需求将此途径存入数据库 resources_file_path = '/resources/movie/cinemaNameList.ini' scratch_url = 'theater.mtime/China_Beijing/' # scratch data with define url def scratch_latest_movies(scratch_url, old_movies): data = requests.get(scratch_url).text soup = bs4.BeautifulSoup(data, "html.parser") new_movies = [] new_movies_json = json.loads( soup.find('script', text=repile("var hotplaySvList")).text.split("=")[1].replace(";", "")) coming_movies_data = soup.find_all('li', class_='i_wantmovie') # 上映的电影 for movie in new_movies_json: move_name = movie['Title'] if move_name not in old_movies: new_movies.append(movie['Title']) # 行将上映的电影 for coming_movie in coming_movies_data: coming_movie_name = coming_movie.h3.a.text if coming_movie_name not in old_movies and coming_movie_name not in new_movies: new_movies.append(coming_movie_name) return new_movies if __name__ == '__main__': MainUtil.main(resources_file_path, scratch_url, scratch_latest_movies)scratch_train_number.py:爬取全国列车号
#!/usr/bin/python # -*- coding: UTF-8 -*- import requests import bs4 import json import MainUtil resources_file_path = '/resources/train/trainNameList.ini' scratch_url = '59178/checi/' def scratch_train_number(scratch_url, old_trains): new_trains = [] resp = requests.get(scratch_url) data = resp.text.encode(resp.encoding).decode('gb2312') soup = bs4.BeautifulSoup(data, "html.parser") a_trains = soup.find('table').find_all('a') for train in a_trains: if train.text not in old_trains and train.text: new_trains.append(train.text) return new_trains if __name__ == '__main__': MainUtil.main(resources_file_path, scratch_url, scratch_train_number)scratch_train_station.py:爬取全国列车站
#!/usr/bin/python # -*- coding: UTF-8 -*- import requests import bs4 import random import MainUtil resources_file_path = '/resources/train/trainStationNameList.ini' scratch_url = 'smskb/train/' def scratch_train_station(scratch_url, old_stations): new_stations = [] provinces_eng = ( "Anhui", "Beijing", "Chongqing", "Fujian", "Gansu", "Guangdong", "Guangxi", "Guizhou", "Hainan", "Hebei", "Heilongjiang", "Henan", "Hubei", "Hunan", "Jiangsu", "Jiangxi", "Jilin", "Liaoning", "Ningxia", "Qinghai", "Shandong", "Shanghai", "Shanxi", "Shanxisheng", "Sichuan", "Tianjin", "Neimenggu", "Xianggang", "Xinjiang", "Xizang", "Yunnan", "Zhejiang") provinces_chi = ( "安徽", "北京", "重庆", "福建", "甘肃", "广东", "广西", "贵州", "海南", "河北", "黑龙江", "河南", "湖北", "湖南", "江苏", "江西", "吉林", "辽宁", "宁夏", "青海", "山东", "上海", "陕西", "山西", "四川", "天津", "内蒙古", "香港", "新疆", "西藏", "云南", "浙江") for i in range(0, provinces_eng.__len__(), 1): cur_url = scratch_url + provinces_eng[i] + ".htm" resp = requests.get(cur_url) data = resp.text.encode(resp.encoding).decode('gbk') soup = bs4.BeautifulSoup(data, "html.parser") a_stations = soup.find('left').find('table').find_all('a') for station in a_stations: if station.text not in old_stations: new_stations.append(provinces_chi[i] + ',' + station.text) return new_stations if __name__ == '__main__': MainUtil.main(resources_file_path, scratch_url, scratch_train_station)将项目放到测验服务器(centos7体系)中运转起来,我写了一个crontab,守时调用他们,下面贴出crontab。
/etc/crontab
SHELL=/bin/bash PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root # For details see man 4 crontabs # Example of job definition: # .---------------- minute (0 - 59) # | .------------- hour (0 - 23) # | | .---------- day of month (1 - 31) # | | | .------- month (1 - 12) OR jan,feb,mar,apr ... # | | | | .---- day of week (0 - 6) (Sunday=0 or 7) OR sun,mon,tue,wed,thu,fri,sat # | | | | | # * * * * * user-name command to be executed 0 0 * * * root python3 /data/app/smart/py/scratch_movie_name.py >> /data/logs/smartpy/out.log 2>&1 0 1 * * 1 root python3 /data/app/smart/py/scratch_train_station.py >> /data/logs/smartpy/out.log 2>&1 0 2 * * 2 root python3 /data/app/smart/py/scratch_train_number.py >> /data/logs/smartpy/out.log 2>&1 0 3 * * 4 root python3 /data/app/smart/py/scratch_flight_number.py >> /data/logs/smartpy/out.log 2>&1 0 4 * * 5 root python3 /data/app/smart/py/scratch_airport_name.py >> /data/logs/smartpy/out.log 2>&1后续
现在项目现已正常运转了三个多月啦。。。
?
有问题反应
在阅览与学习中有任何问题,欢迎反应给我,能够用以下联系方式跟我沟通
微信大众号:裸睡的猪在下面留言直接给我私信关于此大众号
后期或供给各种软件的免费激活码推送python,java等编程技术文章和面试技巧当然你们能够将你们感兴趣的东西直接送给我谢谢你们真挚的重视,此大众号今后取得的收益将悉数经过抽奖的方式送给我们今后假如博首要创业的话,也会在此大众号中选择小伙伴哦~期望我们共享出去,让更多想学习python的朋友看到~??
??
“倾延资_创业企业信赖的财经新闻门户”的新闻页面文章、图片、音频、视频等稿件均为自媒体人、第三方机构发布或转载。如稿件涉及版权等问题,请与
我们联系删除或处理,客服邮箱,稿件内容仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同
其观点或证实其内容的真实性。
- 声音提醒
- 60秒后自动更新
中国8月CPI年率2.3%,预期2.1%,前值2.1%。中国8月PPI年率4.1%,预期4.0%,前值4.6%。
08:00【统计局解读8月CPI:主要受食品价格上涨较多影响】从环比看,CPI上涨0.7%,涨幅比上月扩大0.4个百分点,主要受食品价格上涨较多影响。食品价格上涨2.4%,涨幅比上月扩大2.3个百分点,影响CPI上涨约0.46个百分点。从同比看,CPI上涨2.3%,涨幅比上月扩大0.2个百分点。1-8月平均,CPI上涨2.0%,与1-7月平均涨幅相同,表现出稳定态势。
08:00【 统计局:从调查的40个行业大类看,8月价格上涨的有30个 】统计局:从环比看,PPI上涨0.4%,涨幅比上月扩大0.3个百分点。生产资料价格上涨0.5%,涨幅比上月扩大0.4个百分点;生活资料价格上涨0.3%,扩大0.1个百分点。从调查的40个行业大类看,价格上涨的有30个,持平的有4个,下降的有6个。 在主要行业中,涨幅扩大的有黑色金属冶炼和压延加工业,上涨2.1%,比上月扩大1.6个百分点;石油、煤炭及其他燃料加工业,上涨1.7%,扩大0.8个百分点。化学原料和化学制品制造业价格由降转升,上涨0.6%。
08:00【日本经济已重回增长轨道】日本政府公布的数据显示,第二季度经济扩张速度明显快于最初估值,因企业在劳动力严重短缺的情况下支出超预期。第二季度日本经济折合成年率增长3.0%,高于1.9%的初步估计。经济数据证实,该全球第三大经济体已重回增长轨道。(华尔街日报)
08:00工信部:1-7月我国规模以上互联网和相关服务企业完成业务收入4965亿元,同比增长25.9%。
08:00【华泰宏观:通胀短期快速上行风险因素主要在猪价】华泰宏观李超团队点评8月通胀数据称,今年二、三季度全国部分地区的异常天气(霜冻、降雨等)因素触发了粮食、鲜菜和鲜果价格的波动预期,但这些因素对整体通胀影响有限,未来重点关注的通胀风险因素仍然是猪价和油价,短期尤其需要关注生猪疫情的传播情况。中性预测下半年通胀高点可能在+2.5%附近,年底前有望从高点小幅回落。
08:00【中国信通院:8月国内市场手机出货量同比环比均下降】中国信通院公布数据显示:2018年8月,国内手机市场出货量3259.5万部,同比下降20.9%,环比下降11.8%,其中智能手机出货量为3044.8万部,同比下降 17.4%; 2018年1-8月,国内手机市场出货量2.66亿部,同比下降17.7%。
08:00土耳其第二季度经济同比增长5.2%。
08:00乘联会:中国8月份广义乘用车零售销量176万辆,同比减少7.4%。
08:00央行连续第十四个交易日不开展逆回购操作,今日无逆回购到期。
08:00【黑田东彦:日本央行需要维持宽松政策一段时间】日本央行已经做出调整,以灵活地解决副作用和长期收益率的变化。央行在7月政策会议的决定中明确承诺将利率在更长时间内维持在低水平。(日本静冈新闻)
08:00澳洲联储助理主席Bullock:广泛的家庭财务压力并非迫在眉睫,只有少数借贷者发现难以偿还本金和利息贷款。大部分家庭能够偿还债务。
08:00【 美联储罗森格伦:9月很可能加息 】美联储罗森格伦:经济表现强劲,未来或需采取“温和紧缩”的政策。美联储若调高对中性利率的预估,从而调升对利率路径的预估,并不会感到意外。
08:00美联储罗森格伦:经济表现强劲,未来或需采取“温和紧缩”的政策。美联储若调高对中性利率的预估,从而调升对利率路径的预估,并不会感到意外。
08:00美联储罗森格伦:鉴于经济表现强劲,未来或需采取“温和紧缩的”政策。
08:00
热门文章
- 1.App Store营恒泰证券同花顺下载收强劲 美银予苹果(AAPL.US)“买入”评级
- 2.中国一重股票分析(中国一重股票分析报告)
- 3.天弘基金为什么限购(三峡水利股票行情)
- 4.西部牧业股票(西部牧业行业分析)
- 5.6tcl集团股票吧000万人上瘾!一面致富,一面致癌的千亿帝国!
- 6.皇朝家私官方网站(掌上明珠家具官方网站)
- 7.包含华龙证券官网的词条
- 8.申万农林牧渔周观点:如何看待“证券从业考试刷题青麦转饲”现象?关注印度小麦出口禁令
- 9.三江购物股票_中核钛白002145股票股吧
- 10.s养老金入市entix投资者信心指数 消费者信心指数与投资者信心指数均在乐观区域——2020年第一季度上海财经大学上海市社会经济指数系列发布