小哥电子科技主要做什么是做什么的呢?

人类科技史上有什么趣闻? - 知乎<strong class="NumberBoard-itemValue" title="被浏览<strong class="NumberBoard-itemValue" title=",190,930分享邀请回答1.3K90 条评论分享收藏感谢收起4.1K217 条评论分享收藏感谢收起你都用 Python 来做什么? - 知乎<strong class="NumberBoard-itemValue" title="1被浏览<strong class="NumberBoard-itemValue" title=",867,772分享邀请回答import urllib2
import urllib
import datetime
import os.path
to_find_string="https://bd.phncdn.com/videos/"
big_path=""
def save_file(this_download_url,path):
print"- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - "
time1=datetime.datetime.now()
print str(time1)[:-7],
if (os.path.isfile(path)):
file_size=os.path.getsize(path)/
print "File "+path+" ("+ str(file_size)+"Mb) already exists."
print "Downloading "+path+"..."
f = urllib2.urlopen(this_download_url)
data = f.read()
with open(path, "wb") as code:
code.write(data)
time2=datetime.datetime.now()
print str(time2)[:-7],
print path+" Done."
use_time=time2-time1
print "Time used: "+str(use_time)[:-7]+", ",
file_size=os.path.getsize(path)/
print "File size: "+str(file_size)+" MB, Speed: "+str(file_size/(use_time.total_seconds()))[:4]+"MB/s"
def download_the_av(url):
req = urllib2.Request(url)
content = urllib2.urlopen(req).read()
while len(content)&100:
print"try again..."
content = urllib2.urlopen(req).read()
print "All length:" +str(len(content))
title_begin=content.find("&title&")
title_end=content.find("&/title&")
title=content[title_begin+7:title_end-14]
title=title.replace('/','_')
title=filter(lambda x:x in "abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ _-",title)
quality=['720','480','240']
for i in quality:
find_position=content.find("\"quality\":\""+i+"\"")
if find_position&0:
print "Quality: "+i+"P"
to_find=content[find_position:find_position+4000]
pattern=re.compile(r"\"videoUrl\":\"[^\"]*\"")
match = pattern.search(to_find)
the_url=match.group()
the_url=the_url[12:-1]#the real url
the_url=the_url.replace("\\/","/")
save_file(the_url,big_path+title+".mp4")
urls=["https://www.p***hub.com/view_video.php?viewkey=ph592ef8731630a",]
print len(urls),
print " videos to download..."
for url in urls:
print count
download_the_av(url)
print "All done"
以下是国内版本,请对网址稍作修改谢谢:import urllib2
import urllib
import datetime
import os.path
import requests
def save_file(this_download_url,path):
print"- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - "
time1=datetime.datetime.now()
print str(time1)[:-7],
if (os.path.isfile(path)):
file_size=os.path.getsize(path)/
print "File "+path+" ("+ str(file_size)+"Mb) already exists."
print "Downloading "+path+"..."
r = requests.get(this_download_url,stream=True)
with open(path.encode('utf-8'), "wb") as code:
code.write(r.content)
time2=datetime.datetime.now()
print str(time2)[:-7],
print path+" Done."
use_time=time2-time1
print "Time used: "+str(use_time)[:-7]+", ",
file_size=os.path.getsize(path)/
print "File size: "+str(file_size)+" MB, Speed: "+str(file_size/(use_time.total_seconds()))[:4]+"MB/s"
def download_url(website_url):
fuckyou_header= {'User-Agent':'Mozilla/5.0 (W U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/ Firefox/3.5.6'}
req = urllib2.Request(website_url,headers=fuckyou_header)
content = urllib2.urlopen(req).read()
while len(content)&100:
print"try again..."
content = urllib2.urlopen(req).read()
print "Web page all length:" +str(len(content))
pattern=re.compile(r"http://m4.26ts.com/[.0-9-a-zA-Z]*.mp4")
match = pattern.search(content)
the_url=match.group()
save_file(the_url,the_url[19:])
print "No video found."
urls=["http://www.46ek.c*m/view/22133.html",]
print len(urls),
print " videos to download..."
for i in urls:
print count
download_url(i)
print "All done"
5.9K304 条评论分享收藏感谢收起wlkt.ustc.edu.cn/)是一个非常好的平台,上面汇集了很多知名教授的授课视频,以及最新的讲座、报告、表演视频,内容还是相当丰富的。但是这些视频只面向校内IP开放。所以想在校外看到这些视频必须破解视频地址,于是利用Python的requests库结合BeautifulSoup,用了不到10行代码就可以获取真实下载地址。为了方便没有安装Python的电脑使用,简单写了一个GUI界面,给室友用,都说还是挺好的用的哈。考虑到视频版权问题,代码和程序就不放出来了,请大家见谅。2. 获取中科大研究生系统全部学生姓名、学号、选课信息登录中国科学技术大学的研究生综合系统(),可以看到每一门课选课的学生姓名和学号,当时就想能不能做一个这样的系统,来输入任何姓名(或者学号)就可以看到他所有的选课信息呢?这是选课首页:点击每门课的已选人数链接,可以看到所有的选课学生姓名和学号:下面就利用requests的模拟登录功能,先获取全部课程的链接,并保存对于的课程信息,然后挨个获取了所有课程的选课信息。为了保护学生信息,对程序的关键部分进行了模糊处理,希望大家谅解。这样就获取了一个巨大的json文件,里面全部是学生姓名学号选课信息:有了这个json文件,我们可以写入数据库,也可以直接利用json文件来查询:为了方便其他人使用,基于上面的数据我开发了一个线上版本:输入姓名或者学号都可以直接查询别人的选课信息:这个地址就不放出来了,如果您是科大的研究生,私信我,我把链接发给你。3. 扫描中科大研究生系统上的弱密码用户基于上面获得的选课学生学号,很容易利用Python依次模拟登录研究生,密码就用弱密码123456,然后可以获得身份证号码等重要信息。这样就得到了使用123456作为密码的用户信息,所以在此提醒大家一定不要使用弱密码,希望下面的同学早日修改密码。4. 模拟登录中科大图书馆并自动续借最近,科大图书馆系统升级了,到处都加了验证码,所以下面这个方法直接使用肯定是不行了,不过曾经毕竟成功过哈。以前收到借阅图书到期通知短信,就会运行一下这个程序,自动续借了,然后就可以再看一个月了。运行就是这样的,自动续借成功,看到的链接就是每本书的续借链接。5. 网易云音乐批量下载终于来一个正常一点的哈,那么我就直接放代码吧,可以下载网易云音乐各个榜单的全部歌曲,批量下载,速度挺快。请注意提前要创建一个名为 “网易云音乐” 的文件夹。# 网易云音乐批量下载
# By Tsing
# Python3.4.4
import requests
import urllib
# 榜单歌曲批量下载
# r = requests.get('http://music.163.com/api/playlist/detail?id=2884035') # 网易原创歌曲榜
# r = requests.get('http://music.163.com/api/playlist/detail?id=') # 云音乐飙升榜
# r = requests.get('http://music.163.com/api/playlist/detail?id=3778678') # 云音乐热歌榜
r = requests.get('http://music.163.com/api/playlist/detail?id=3779629') # 云音乐新歌榜
# 歌单歌曲批量下载
# r = requests.get('http://music.163.com/api/playlist/detail?id=') # 云音乐歌单——【华语】中国风的韵律,中国人的印记
# r = requests.get('http://music.163.com/api/playlist/detail?id=') # 云音乐歌单——那不是爱,只是寂寞说的谎
arr = r.json()['result']['tracks'] # 共有100首歌
for i in range(10): # 输入要下载音乐的数量,1到100。
name = str(i+1) + ' ' + arr[i]['name'] + '.mp3'
link = arr[i]['mp3Url']
urllib.request.urlretrieve(link, '网易云音乐\\' + name) # 提前要创建文件夹
print(name + ' 下载完成')
于是就可以愉快的听歌了。上面这些都是在Python3的环境下完成的,在此之前,用Python2还写了一些程序,下面也放几个吧。初期代码可能显得有些幼稚,请大神见谅。6. 批量下载读者杂志某一期的全部文章上次无意中发现读者杂志还有一个在线的版本,然后兴趣一来就用Python批量下载了上面的大量文章,保存为txt格式。#!/usr/bin/env python
# -*- coding: utf-8 -*-
# 保存读者杂志某一期的全部文章为TXT
# By Tsing
# Python 2.7.9
import urllib2
from bs4 import BeautifulSoup
def urlBS(url):
response = urllib2.urlopen(url)
html = response.read()
soup = BeautifulSoup(html)
return soup
def main(url):
soup = urlBS(url)
link = soup.select('.booklist a')
path = os.getcwd()+u'/读者文章保存/'
if not os.path.isdir(path):
os.mkdir(path)
for item in link:
newurl = baseurl + item['href']
result = urlBS(newurl)
title = result.find("h1").string
writer = result.find(id="pub_date").string.strip()
filename = path + title + '.txt'
print filename.encode("gbk")
new=open(filename,"w")
new.write("&&" + title.encode("gbk") + "&&\n\n")
new.write(writer.encode("gbk")+"\n\n")
text = result.select('.blkContainerSblkCon p')
for p in text:
context = p.text
new.write(context.encode("gbk"))
new.close()
if __name__ == '__main__':
time = '2015_03'
baseurl = 'http://www.52duzhe.com/' + time +'/'
firsturl = baseurl + 'index.html'
main(firsturl)
7. 获取城市PM2.5浓度和排名最近环境问题很受关注,就用Python写了一个抓取PM2.5的程序玩玩,程序支持多线程,方便扩展。#!/usr/bin/env python
# -*- coding: utf-8 -*-
# 获取城市PM2.5浓度和排名
# By Tsing
# Python 2.7.9
import urllib2
import threading
from time import ctime
from bs4 import BeautifulSoup
def getPM25(cityname):
site = 'http://www.pm25.com/' + cityname + '.html'
html = urllib2.urlopen(site)
soup = BeautifulSoup(html)
city = soup.find(class_ = 'bi_loaction_city')
# 城市名称
aqi = soup.find("a",{"class","bi_aqiarea_num"})
quality = soup.select(".bi_aqiarea_right span")
# 空气质量等级
result = soup.find("div",class_ ='bi_aqiarea_bottom')
# 空气质量描述
print city.text + u'AQI指数:' + aqi.text + u'\n空气质量:' + quality[0].text + result.text
print '*'*20 + ctime() + '*'*20
def one_thread():
print 'One_thread Start: ' + ctime() + '\n'
getPM25('hefei')
getPM25('shanghai')
def two_thread():
print 'Two_thread Start: ' + ctime() + '\n'
threads = []
t1 = threading.Thread(target=getPM25,args=('hefei',))
threads.append(t1)
t2 = threading.Thread(target=getPM25,args=('shanghai',))
threads.append(t2)
for t in threads:
# t.setDaemon(True)
if __name__ == '__main__':
one_thread()
print '\n' * 2
two_thread()
8. 爬取易迅网商品价格信息当时准备抓取淘宝价格的,发现有点难,后来就没有尝试,就把目标选在了易迅网。#!/usr/bin/env python
#coding:utf-8
# 根据易迅网的商品ID,爬取商品价格信息。
# By Tsing
# Python 2.7.9
import urllib2
from bs4 import BeautifulSoup
def get_yixun(id):
price_origin,price_sale = '0','0'
url = 'http://item.yixun.com/item-' + id + '.html'
html = urllib2.urlopen(url).read().decode('utf-8')
soup = BeautifulSoup(html)
title = unicode(soup.title.text.strip().strip(u'【价格_报价_图片_行情】-易迅网').replace(u'】','')).encode('utf-8').decode('utf-8')
print title
soup_origin = soup.find("dl", { "class" : "xbase_item xprice xprice_origin" })
price_origin = soup_origin.find("span", { "class" : "mod_price xprice_val" }).contents[1].text
u'原价:' + price_origin
soup_sale= soup.find('dl',{'class':'xbase_item xprice'})
price_sale = soup_sale.find("span", { "class" : "mod_price xprice_val" }).contents[1]
u'现价:'+ price_sale
return None
if __name__ == '__main__':
get_yixun('2189654')
9. 音悦台MV免积分下载音悦台上有好多高质量的MV,想要下载却没有积分,于是就想到破解下载。当时受一个大神的代码的启发,就写出了下面的代码,虽然写的有点乱,但还是可以成功破解的哈。#!/usr/bin/env python
# -*- coding: utf-8 -*-
# 音悦台MV免积分下载
# By Tsing
# Python 2.7.9
import urllib2
import urllib
mv_id = '2278607'
# 这里输入mv的id,即http://v.yinyuetai.com/video/2275893最后的数字
url = "http://www.yinyuetai.com/insite/get-video-info?flex=true&videoId=" + mv_id
timeout = 30
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 6.3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36',
'Accept':'text/html,application/xhtml+xml,application/q=0.9,image/webp,*/*;q=0.8'
req = urllib2.Request(url, None, headers)
res = urllib2.urlopen(req,None, timeout)
html = res.read()
reg = r"http://\w*?\.yinyuetai\.com/uploads/videos/common/.*?(?=&br)"
pattern=re.compile(reg)
findList = re.findall(pattern,html)
# 找到mv所有版本的下载链接
if len(findList) &= 3:
mvurl = findList[2]
# 含有流畅、高清、超清三个版本时下载超清
mvurl = findList[0]
# 版本少时下载流畅视频
local = 'MV.flv'
print 'downloading...please wait...'
urllib.urlretrieve(mvurl,local)
print "[:)] Great! The mv has been downloaded.\n"
print "[:(] Sorry! The action is failed.\n"
10. 其他请参考:结语:Python是一个利器,而我用到的肯定也只是皮毛,写过的程序多多少少也有点相似,但是我对Python的爱却是越来越浓的。补充:看到评论中有好多知友问哪里可以快速而全面地学习Python编程,我只给大家推荐一个博客,大家认真看就够了:3.3K419 条评论分享收藏感谢收起职友集:一家做公司点评的网站【杭州小哥网络科技有限公司】杭州小哥网络科技有限公司招聘|待遇|面试|怎么样-看准网
杭州小哥网络科技有限公司
移动互联网
公司地址 浙江省杭州市西湖区西城纪商务大厦1号楼218室公司介绍
我公司快递平台是立足于LBS的O2O应用,主要服务于有寄件需求的C端用户和传统快递公司快递员。是一个实现互联网+快递的移动互联网产品。
杭州小哥网络科技有限公司
浙江省杭州市西湖区西城纪商务大厦1号楼218室
我公司创立于2010年,座落于美丽的天堂软件园,2015年3月已在新三板挂牌上市,股票代码832104。公司是一家从事通信服务、互联网金融的的国家省级高新技术企业。公司员工近百人,以技术研发,运营为主
注册资本:1000万人民币
法人代表:韩延杨
杭州小哥网络科技有限公司
有限责任公司(自然人投资或控股的法人独资)
浙江省杭州市西湖区西城纪商务大厦1号楼218室
技术开发、技术服务、技术咨询、成果转让:计算机网络技术、计算机软硬件、手机软件、通信技术;设计、制作、代理、发布:国内广告(除网络广告发布)
杭州小哥网络科技有限公司点评
公司前景看好
来自 1条点评
移动互联网行业排名 No.0查看互联网行业好评公司
现目前的状况可能大多数人都很迷茫,公司刚起步时却是很红火,但
杭州小哥网络科技有限公司面经
来自 9条面试经验
面试过程就是简单的走流程,一番下来就行了。开始的自我介绍,接...
面试结果:面试通过
面试难度:一般
面试感受:一般
HR效率很高,这个岗位需要即刻入职,可能因为我个人原因吧,面...
面试结果:感觉靠谱
面试难度:巨难
面试感受:很好
杭州小哥网络科技有限公司工资
月平均工资
来自 3职位,3员工分享
高于同行业比查看移动互联网行业工资公司
¥5000比同行
¥12000比同行
说说你对杭州小哥网络科技有限公司的印象如何?
在杭州小哥网络科技有限公司工作过么?
给TA打个分吧!
向该公司老鸟提问
0回答 · 0关注
不限不限杭州
3-5年不限杭州
5-10年本科杭州
3-5年大专杭州
不限不限杭州
3-5年本科杭州
1-3年不限杭州
3-5年大专杭州
1-3年本科杭州
3-5年大专杭州
广告等垃圾信息
违禁信息(色情、欺诈、非法传销)
不友善内容(诽谤,人身攻击、骚扰、侵犯隐私)
违法、政治敏感内容
感谢您的举报,我们会尽快处理~
订阅公司信息
订阅成功!
小贴士:问题描述的越清楚,越能吸引老鸟来回答哟~
请输入问题
向老鸟咨询
把你关于杭州小哥网络科技有限公司的问题大胆的提出来,这里的1位老鸟很乐意为你解答~
写下问题吧~
提交成功!请静静等待老鸟们回答~
扫描二维码分享到朋友圈,邀请微信好友帮忙解答
杭州小哥网络科技有限公司:想知道杭州小哥网络科技有限公司怎么样?看准网(Kanzhun.com)免费提供杭州小哥网络科技有限公司招聘、杭州小哥网络科技有限公司工资、杭州小哥网络科技有限公司面试、评价、工作环境招聘及员工等杭州小哥网络科技有限公司的信息。
内容索引:
优秀公司:
行业公司:
友情链接:
关注看准官方微信
下载看准官方APP
关注看准官方微信
下载看准官方APP
爆料数十万公司信息爆料
互助职场人在线互动
工资公司实际工资查看
改简历专人改简历提高工资
老鸟私聊求助能挣钱
输入手机号,下载看准APP
扫码下载看准APP或各大应用商店搜索:看准低调的京东小哥卖场 做的是一笔什么生意?|界面新闻 · JMedia扫一扫下载界面新闻APP在不少人眼中,京东小哥并不只是物流配送员这么简单,他们还被打上了&折扣&、&爆款&等标签。而这一切,都起因于&京东小哥卖场&这一围绕京东快递员展开的一种新的电商销售模式。
根据介绍,京东小哥卖场是一种特殊的优惠促销方式。用户扫描身边京东小哥的专属二维码,获取专属优惠。卖场分今日1折、内购专享、优惠排行、小区爆品等四个版块。根据用户所选位置不同,可供选择的促销商品也有所区别。
不同坐标下京东小哥页面对比
事实上,这一模式由来已久。亿邦动力网发现,在&京东北京信息平台&微信公众号的历史消息里,官方对这一模式的描述也几经更变。在日之前,官方模糊地称&扫码有优惠&。此后两个多月,又短暂地称其为&京东智能会场&和&京东智能卖场&;而后,&京东小哥卖场&的定位沿用至今。
据悉,进入&小哥卖场&的常规消费方式有四种:
一、用户向快递小哥索取二维码,下单;
二、快递小哥主动向用户介绍该卖场,引导用户扫码下单;
三、快递小哥在其社区微信群发布促销信息,引导用户下单;
四、邻里、朋友推荐。
不难发现,小哥卖场促成交易的一个重要前提是,消费者对快递员的信任。
一位不愿透露姓名的京东快递员向亿邦动力网表示,他的&小哥卖场&以熟人为主,起初多会主动介绍,但现在更多的是在有人问到优惠时,才会展示二维码。一是因为主动介绍比较耗时间,影响配送效率。再者,熟人圈子比较固定,几乎全都已覆盖到了。
值得一提的是,当亿邦动力网主动向该快递员索要二维码时,对方表示不确定现在还能不能打印出小哥卖场二维码(最终成功打印出来了)。由此可见,对于该快递员来说,小哥卖场并不是一个高频的需求。
有业内人士评论称,小哥卖场的消费群体带有鲜明的地域属性,通过前期的数据收集、整理,能有效地识别特定社区内消费者的意向商品和购买偏好,这样也便于促销信息的精准推送甚至就近清理库存,对于消费者和平台来说都是一件好事。但考虑到推销卖场以及维护微信群的时间成本问题,快递小哥能否从中获得回报是实现长期经营的关键要素。
您至少需输入5个字评论 相关文章界面JMedia联盟成员推荐阅读

我要回帖

更多关于 小哥科技 的文章

 

随机推荐