现在有什么免费股票数据接口的方法获得股票的数据

Python 爬虫实战(2):股票数据定向爬虫 - Python - 伯乐在线
& Python 爬虫实战(2):股票数据定向爬虫
目标: 获取上交所和深交所所有股票的名称和交易信息。
输出: 保存到文件中。
技术路线: requests—bs4–re
语言:python3.5
网站选择原则: 股票信息静态存在于html页面中,非js代码生成,没有Robbts协议限制。
选取方法: 打开网页,查看源代码,搜索网页的股票价格数据是否存在于源代码中。
如打开新浪股票网址:,如下图所示:
上图中左边为网页的界面,显示了天山股份的股票价格是13.06。右边为该网页的源代码,在源代码中查询13.06发现没有找到。所以判断该网页的数据使用js生成的,不适合本项目。因此换一个网页。
再打开百度股票的网址:,如下图所示:
从上图中可以发现百度股票的数据是html代码生成的,符合我们本项目的要求,所以在本项目中选择百度股票的网址。
由于百度股票只有单个股票的信息,所以还需要当前股票市场中所有股票的列表,在这里我们选择东方财富网,网址为:,界面如下图所示:
查看百度股票每只股票的网址:https://gupiao.baidu.com/stock/sz300023.html,可以发现网址中有一个编号300023正好是这只股票的编号,sz表示的深圳交易所。因此我们构造的程序结构如下:
步骤1: 从东方财富网获取股票列表;
步骤2: 逐一获取股票代码,并增加到百度股票的链接中,最后对这些链接进行逐个的访问获得股票的信息;
步骤3: 将结果存储到文件。
接着查看百度个股信息网页的源代码,发现每只股票的信息在html代码中的存储方式如下:
因此,在我们存储每只股票的信息时,可以参考上图中html代码的存储方式。每一个信息源对应一个信息值,即采用键值对的方式进行存储。在python中键值对的方式可以用字典类型。因此,在本项目中,使用字典来存储每只股票的信息,然后再用字典把所有股票的信息记录起来,最后将字典中的数据输出到文件中。
首先是获得html网页数据的程序,在这里不多做介绍了,代码如下:
#获得html文本
def getHTMLText(url):
r = requests.get(url)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
#获得html文本def getHTMLText(url):&&&&try:&&&&&&&&r = requests.get(url)&&&&&&&&r.raise_for_status()&&&&&&&&r.encoding = r.apparent_encoding&&&&&&&&return r.text&&&&except:&&&&&&&&return ""
接下来是html代码解析程序,在这里首先需要解析的是东方财富网页面:,我们打开其源代码,如下图所示:
由上图可以看到,a标签的href属性中的网址链接里面有每只股票的对应的号码,因此我们只要把网址里面对应股票的号码解析出来即可。解析步骤如下:
第一步,获得一个页面:
html = getHTMLText(stockURL)
html = getHTMLText(stockURL)
第二步,解析页面,找到所有的a标签:
soup = BeautifulSoup(html, 'html.parser')
a = soup.find_all('a')
soup = BeautifulSoup(html, 'html.parser') a = soup.find_all('a')
第三步,对a标签中的每一个进行遍历来进行相关的处理。处理过程如下:
1.找到a标签中的href属性,并且判断属性中间的链接,把链接后面的数字取出来,在这里可以使用正则表达式来进行匹配。由于深圳交易所的代码以sz开头,上海交易所的代码以sh开头,股票的数字有6位构成,所以正则表达式可以写为[s][hz]\d{6}。也就是说构造一个正则表达式,在链接中去寻找满足这个正则表达式的字符串,并把它提取出来。代码如下:
for i in a:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
for i in a:&&&&href = i.attrs['href']&&&&lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
2.由于在html中有很多的a标签,但是有些a标签中没有href属性,因此上述程序在运行的时候出现异常,所有对上述的程序还要进行try…except来对程序进行异常处理,代码如下:
for i in a:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
for i in a:&&&&try:&&&&&&&&href = i.attrs['href']&&&&&&&&lst.append(re.findall(r"[s][hz]\d{6}", href)[0])&&&&except:&&&&&&&&continue
从上面代码可以看出,对于出现异常的情况我们使用了continue语句,直接让其跳过,继续执行下面的语句。通过上面的程序我们就可以把东方财富网上股票的代码信息全部保存下来了。
将上述的代码封装成一个函数,对东方财富网页面解析的完整代码如下所示:
def getStockList(lst, stockURL):
html = getHTMLText(stockURL)
soup = BeautifulSoup(html, 'html.parser')
a = soup.find_all('a')
for i in a:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
12345678910
def getStockList(lst, stockURL):&&&&html = getHTMLText(stockURL)&&&&soup = BeautifulSoup(html, 'html.parser') &&&&a = soup.find_all('a')&&&&for i in a:&&&&&&&&try:&&&&&&&&&&&&href = i.attrs['href']&&&&&&&&&&&&lst.append(re.findall(r"[s][hz]\d{6}", href)[0])&&&&&&&&except:&&&&&&&&&&&&continue
接下来是获得百度股票网单只股票的信息。我们先查看该页面的源代码,如下图所示:
股票的信息就存在上图所示的html代码中,因此我们需要对这段html代码进行解析。过程如下:
1.百度股票网的网址为:https://gupiao.baidu.com/stock/
一只股票信息的网址为:https://gupiao.baidu.com/stock/sz300023.html
所以只要百度股票网的网址+每只股票的代码即可,而每只股票的代码我们已经有前面的程序getStockList从东方财富网解析出来了,因此对getStockList函数返回的列表进行遍历即可,代码如下:
for stock in lst:
url = stockURL + stock + ".html"
for stock in lst:&&&&&&&&url = stockURL + stock + ".html"
2.获得网址后,就要访问网页获得网页的html代码了,程序如下:
html = getHTMLText(url)
html = getHTMLText(url)
3.获得了html代码后就需要对html代码进行解析,由上图我们可以看到单个股票的信息存放在标签为div,属性为stock-bets的html代码中,因此对其进行解析:
soup = BeautifulSoup(html, 'html.parser')
stockInfo = soup.find('div',attrs={'class':'stock-bets'})
soup = BeautifulSoup(html, 'html.parser')stockInfo = soup.find('div',attrs={'class':'stock-bets'})
4.我们又发现股票名称在bets-name标签内,继续解析,存入字典中:
infoDict = {}
name = stockInfo.find_all(attrs={'class':'bets-name'})[0]
infoDict.update({'股票名称': name.text.split()[0]})
infoDict = {}name = stockInfo.find_all(attrs={'class':'bets-name'})[0]infoDict.update({'股票名称': name.text.split()[0]})
split()的意思是股票名称空格后面的部分不需要了。
5.我们从html代码中还可以观察到股票的其他信息存放在dt和dd标签中,其中dt表示股票信息的键域,dd标签是值域。获取全部的键和值:
keyList = stockInfo.find_all('dt')
valueList = stockInfo.find_all('dd')
keyList = stockInfo.find_all('dt')valueList = stockInfo.find_all('dd')
并把获得的键和值按键值对的方式村放入字典中:
for i in range(len(keyList)):
key = keyList[i].text
val = valueList[i].text
infoDict[key] = val
for i in range(len(keyList)):&&&&key = keyList[i].text&&&&val = valueList[i].text&&&&infoDict[key] = val
6.最后把字典中的数据存入外部文件中:
with open(fpath, 'a', encoding='utf-8') as f:
f.write( str(infoDict) + '\n' )
with open(fpath, 'a', encoding='utf-8') as f:f.write( str(infoDict) + '\n' )
将上述过程封装成完成的函数,代码如下:
def getStockInfo(lst, stockURL, fpath):
for stock in lst:
url = stockURL + stock + ".html"
html = getHTMLText(url)
if html=="":
infoDict = {}
soup = BeautifulSoup(html, 'html.parser')
stockInfo = soup.find('div',attrs={'class':'stock-bets'})
name = stockInfo.find_all(attrs={'class':'bets-name'})[0]
infoDict.update({'股票名称': name.text.split()[0]})
keyList = stockInfo.find_all('dt')
valueList = stockInfo.find_all('dd')
for i in range(len(keyList)):
key = keyList[i].text
val = valueList[i].text
infoDict[key] = val
with open(fpath, 'a', encoding='utf-8') as f:
f.write( str(infoDict) + '\n' )
12345678910111213141516171819202122232425
def getStockInfo(lst, stockURL, fpath):&&&&for stock in lst:&&&&&&&&url = stockURL + stock + ".html"&&&&&&&&html = getHTMLText(url)&&&&&&&&try:&&&&&&&&&&&&if html=="":&&&&&&&&&&&&&&&&continue&&&&&&&&&&&&infoDict = {}&&&&&&&&&&&&soup = BeautifulSoup(html, 'html.parser')&&&&&&&&&&&&stockInfo = soup.find('div',attrs={'class':'stock-bets'}) &&&&&&&&&&&&name = stockInfo.find_all(attrs={'class':'bets-name'})[0]&&&&&&&&&&&&infoDict.update({'股票名称': name.text.split()[0]})&&&&&&&&&&&& &&&&&&&&&&&&keyList = stockInfo.find_all('dt')&&&&&&&&&&&&valueList = stockInfo.find_all('dd')&&&&&&&&&&&&for i in range(len(keyList)):&&&&&&&&&&&&&&&&key = keyList[i].text&&&&&&&&&&&&&&&&val = valueList[i].text&&&&&&&&&&&&&&&&infoDict[key] = val&&&&&&&&&&&& &&&&&&&&&&&&with open(fpath, 'a', encoding='utf-8') as f:&&&&&&&&&&&&&&&&f.write( str(infoDict) + '\n' )&&&&&&&&except:&&&&&&&&&&&&continue
其中try…except用于异常处理。
接下来编写主函数,调用上述函数即可:
def main():
stock_list_url = 'http://quote.eastmoney.com/stocklist.html'
stock_info_url = 'https://gupiao.baidu.com/stock/'
output_file = 'D:/BaiduStockInfo.txt'
getStockList(slist, stock_list_url)
getStockInfo(slist, stock_info_url, output_file)
def main():&&&&stock_list_url = 'http://quote.eastmoney.com/stocklist.html'&&&&stock_info_url = 'https://gupiao.baidu.com/stock/'&&&&output_file = 'D:/BaiduStockInfo.txt'&&&&slist=[]&&&&getStockList(slist, stock_list_url)&&&&getStockInfo(slist, stock_info_url, output_file)
项目完整程序
# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoup
import traceback
def getHTMLText(url):
r = requests.get(url)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
def getStockList(lst, stockURL):
html = getHTMLText(stockURL)
soup = BeautifulSoup(html, 'html.parser')
a = soup.find_all('a')
for i in a:
href = i.attrs['href']
lst.append(re.findall(r"[s][hz]\d{6}", href)[0])
def getStockInfo(lst, stockURL, fpath):
for stock in lst:
url = stockURL + stock + ".html"
html = getHTMLText(url)
if html=="":
infoDict = {}
soup = BeautifulSoup(html, 'html.parser')
stockInfo = soup.find('div',attrs={'class':'stock-bets'})
name = stockInfo.find_all(attrs={'class':'bets-name'})[0]
infoDict.update({'股票名称': name.text.split()[0]})
keyList = stockInfo.find_all('dt')
valueList = stockInfo.find_all('dd')
for i in range(len(keyList)):
key = keyList[i].text
val = valueList[i].text
infoDict[key] = val
with open(fpath, 'a', encoding='utf-8') as f:
f.write( str(infoDict) + '\n' )
count = count + 1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
count = count + 1
print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
def main():
stock_list_url = 'http://quote.eastmoney.com/stocklist.html'
stock_info_url = 'https://gupiao.baidu.com/stock/'
output_file = 'D:/BaiduStockInfo.txt'
getStockList(slist, stock_list_url)
getStockInfo(slist, stock_info_url, output_file)
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667
# -*- coding: utf-8 -*-&import requestsfrom bs4 import BeautifulSoupimport tracebackimport re def getHTMLText(url):&&&&try:&&&&&&&&r = requests.get(url)&&&&&&&&r.raise_for_status()&&&&&&&&r.encoding = r.apparent_encoding&&&&&&&&return r.text&&&&except:&&&&&&&&return "" def getStockList(lst, stockURL):&&&&html = getHTMLText(stockURL)&&&&soup = BeautifulSoup(html, 'html.parser') &&&&a = soup.find_all('a')&&&&for i in a:&&&&&&&&try:&&&&&&&&&&&&href = i.attrs['href']&&&&&&&&&&&&lst.append(re.findall(r"[s][hz]\d{6}", href)[0])&&&&&&&&except:&&&&&&&&&&&&continue def getStockInfo(lst, stockURL, fpath):&&&&count = 0&&&&for stock in lst:&&&&&&&&url = stockURL + stock + ".html"&&&&&&&&html = getHTMLText(url)&&&&&&&&try:&&&&&&&&&&&&if html=="":&&&&&&&&&&&&&&&&continue&&&&&&&&&&&&infoDict = {}&&&&&&&&&&&&soup = BeautifulSoup(html, 'html.parser')&&&&&&&&&&&&stockInfo = soup.find('div',attrs={'class':'stock-bets'}) &&&&&&&&&&&&name = stockInfo.find_all(attrs={'class':'bets-name'})[0]&&&&&&&&&&&&infoDict.update({'股票名称': name.text.split()[0]})&&&&&&&&&&&& &&&&&&&&&&&&keyList = stockInfo.find_all('dt')&&&&&&&&&&&&valueList = stockInfo.find_all('dd')&&&&&&&&&&&&for i in range(len(keyList)):&&&&&&&&&&&&&&&&key = keyList[i].text&&&&&&&&&&&&&&&&val = valueList[i].text&&&&&&&&&&&&&&&&infoDict[key] = val&&&&&&&&&&&& &&&&&&&&&&&&with open(fpath, 'a', encoding='utf-8') as f:&&&&&&&&&&&&&&&&f.write( str(infoDict) + '\n' )&&&&&&&&&&&&&&&&count = count + 1&&&&&&&&&&&&&&&&print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")&&&&&&&&except:&&&&&&&&&&&&count = count + 1&&&&&&&&&&&&print("\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")&&&&&&&&&&&&continue def main():&&&&stock_list_url = 'http://quote.eastmoney.com/stocklist.html'&&&&stock_info_url = 'https://gupiao.baidu.com/stock/'&&&&output_file = 'D:/BaiduStockInfo.txt'&&&&slist=[]&&&&getStockList(slist, stock_list_url)&&&&getStockInfo(slist, stock_info_url, output_file) main()
上述代码中的print语句用于打印爬取的进度。执行完上述代码后在D盘会出现BaiduStockInfo.txt文件,里面存放了股票的信息。有哪些免费的获得股票数据的渠道? - 知乎有问题,上知乎。知乎作为中文互联网最大的知识分享平台,以「知识连接一切」为愿景,致力于构建一个人人都可以便捷接入的知识分享网络,让人们便捷地与世界分享知识、经验和见解,发现更大的世界。3被浏览127分享邀请回答0添加评论分享收藏感谢收起12 条评论分享收藏感谢收起写回答苹果/安卓/wp
中国统计年鉴数据库
按年份索引
按国、省、市索引
积分 264, 距离下一级还需 186 积分
权限: 自定义头衔, 签名中使用图片
道具: 涂鸦板, 彩虹炫, 雷达卡, 热点灯, 显身卡, 匿名卡, 金钱卡, 变色卡下一级可获得
道具: 抢沙发
购买后可立即获得
权限: 隐身
道具: 金钱卡, 变色卡, 彩虹炫, 雷达卡, 热点灯, 涂鸦板
无聊签到天数: 1 天连续签到: 1 天[LV.1]初来乍到
我想抓取一些股票的历史数据进行分析,上网搜索得到以下几个可以用的方法:
1. google财经的数据:
2. yahoo财经的数据:=股票代码
3. sina财经的数据
从编程来看使用yahoo最简单,因为得到的已经是一个csv文件;google的话还需要自己去从网页中抓取数据;sina貌似不方便一次性得到大批历史数据,还没有具体去尝试。
但google和yahoo得到的数据貌似不太一样的:google的数据是复权价,而yahoo的数据没有复权处理。
我的问题:
1. 还有没有其它途径可以得到大量可用的股票历史数据(最近几年)?
2. 复权价应该更适用于用于研究股票价格的变化,那么除了复权价这个因素外,(从网上抓取的)股票历史价格里还有哪些因素需要调整以真实反映股票价格的波动?
因为不是金融专业的,对股票方面的了解也不太全面,希望能得到大家的指教。3KS
PS:写了个简单的程序扒google的数据,才抓取不到300个股票的数据就被google服务器给禁了,郁闷
从金融数据库里可以下载啊
一般的学校不是自己建有数据库,就是有购买专业的数据库,一般图书馆的电子资源列表中会有这些说明的。不过,一般是不能给你大量获取原始数据的,否则,服务商会认为你试图利用他们的数据库从事商业活动,服务商会封锁ip的。购买的数据库使用也是有权限的,一般情况是每天下载量有限制,有些是数据源限制(学校不一定会购买数据库的所有模块),当然,如果是高级用户,又急需要大量的数据的话,你可以向服务商申请特定的数据,说明你的意图,如果申请通过,一两个工作日,他们就会给你想要的数据了。
我帮你抓取这些数据
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
&nbsp&nbsp|
如有投资本站或合作意向,请联系(010-);
邮箱:service@pinggu.org
投诉或不良信息处理:(010-)
论坛法律顾问:王进律师stay hungry, stay foolish .
上士闻道,勤而行之;下士闻道,或行或止.
获取股票实时交易数据的方法
调用sina专门的js服务器来获得数据,速度飞快:
var hq_str_sh600151="航天机电,7.08,7.09,6.95,7.08,6.90,6.95,6.96,,6.95,,,,,700,6.96,,,,.00,,15:03:05";
var hq_str_sz000830="鲁西化工,4.90,4.93,4.85,4.90,4.83,4.84,4.85,400,4.84,.83,,.81,.80,,,,,,,15:05:52";
var hq_str_s_sh000001="上证指数,.065,-0.70,9858";
var hq_str_s_sz399001="深证成指,.573,-0.60,4888";
var hq_str_s_sz399106="深证综指,942.182,-3.439,-0.36,4763";
var hq_str_s_sz399107="深证A指,985.824,-3.544,-0.36,5505";
var hq_str_s_sz399108="深证B指,621.687,-5.293,-0.84,8";
上证指数(指数名称),(当前点数),-16.065(涨跌额),-0.70(涨跌幅度),599419(总手),5529858(成交金额)";
"航天机电,名称
7.08,今日最高
6.90,今日最低
6.95,竞买价,即买一报价
6.96,竞卖价,即卖一报价
4368014,成交的股票数量,应除以100
,成交金额,单位为元
,买一申请股数(29手),买一报价
5700,6.94,买二申请,买二报价
11687,6.93,买三申请,买三报价
19700,6.92,买四申请,买四报价
28200,6.91,买五申请,买五报价
700,6.96,卖一申请,卖一报价
6000,6.97,卖二申请,卖二报价
26600,6.98,卖三申请,卖三报价
21701,6.99,卖四申请,卖四报价
104259,7.00,卖五申请,卖五报价
15:03:05 时间
一共31个值。
var hq_str_s_sz399001="深证成指,.573,-0.60,4888";
var hq_str_s_sz399002="成份A指,,-64.126,-0.59,833";
var hq_str_s_sz399003="成份B指,.460,-0.88,";
var hq_str_s_sz399010="深证700,.677,-0.25,6751";
var hq_str_s_sz399106="深证综指,942.182,-3.439,-0.36,4763";
var hq_str_s_sz399107="深证A指,985.824,-3.544,-0.36,5505";
var hq_str_s_sz399108="深证B指,621.687,-5.293,-0.84,8";
var hq_str_s_sh000001="上证指数,.065,-0.70,9858";
var hq_str_s_sh000002="A股指数,.998,-0.70,2715";
var hq_str_s_sh000003="B股指数,232.017,1.908,0.83,";
var hq_str_s_sh000004="工业指数,.161,-0.87,3599";
var hq_str_s_sh000005="商业指数,.454,-0.69,";
var hq_str_s_sh000006="地产指数,.763,1.77,";
var hq_str_s_sh000007="公用指数,.401,-1.06,";
var hq_str_s_sh000008="综合指数,.102,-0.52,9434";
var hq_str_sh600151="航天机电,7.08,7.09,6.95,7.08,6.90,6.95,6.96,,6.95,,,,,700,6.96,,,,.00,,15:03:05";
var hq_str_sh600152="维科精华,6.89,7.10,6.94,6.97,6.48,6.83,6.84,0,6.83,,,,100,6.79,,,,,,,15:03:05";
var hq_str_sh600153="建发股份,7.47,7.52,7.62,7.68,7.46,7.61,7.62,575,7.61,,.59,,.57,,,.64,.65,.66,,15:03:05";
var hq_str_sz000830="鲁西化工,4.90,4.93,4.85,4.90,4.83,4.84,4.85,400,4.84,.83,,.81,.80,,,,,,,15:05:52";
指数的格式
"s_sh"+"000001"
中证央企(上)
央企100(上)
"s_sz"+"399001"
中证央企(深)
央企100(深)
fortune_hq({"cna":[["上证指数","2289.79","-16.06","-0.70%","http://q.stock.sohu.com/zs/000001/index.shtml"],["深证成指","9790.20","-59.57","-0.60%","http://q.stock.sohu.com/zs/399001/index.shtml"],["中小板综","5253.22","-13.70","-0.26%","http://q.stock.sohu.com/zs/399101/index.shtml"]],"cnb":[["B股指数","232.02","1.91","0.83%","http://q.stock.sohu.com/zs/000003/index.shtml"],["成份B指","4425.99","-39.46","-0.88%","http://q.stock.sohu.com/zs/399003/index.shtml"]],"cnf":[["沪市基金","3824.81","-21.85","-0.57%","http://q.stock.sohu.com/zs/000011/index.shtml"],["深市基金","4601.38","-25.05","-0.54%","http://q.stock.sohu.com/zs/399305/index.shtml"]],"hk":[["恒生指数","18872.56","-81.07","-0.43%","http://q.stock.sohu.com/hk/HSI/index.shtml"],["国企指数","9519.53","-55.27","-0.58%","http://q.stock.sohu.com/hk/HSCEI/index.shtml"],["红筹指数","3789.30","-3.77","-0.10%","http://q.stock.sohu.com/hk/HSCCI/index.shtml"]],"us":[["道琼斯工业指数","12411.23","-142.97","-1.14%","http://q.stock.sohu.com/us/index.shtml?DJI"],["纳斯达克综合指数","2809.73","-48.69","-1.70%","http://q.stock.sohu.com/us/index.shtml?IXIC"],["标准普尔500指数","1312.39","3.46","0.26%","http://q.stock.sohu.com/us/index.shtml?GSPC"]]})
PEAK_ODIA(['financeindexhq',[['zs_000001','上证指数','2289.79','-16.06','-0.70%','http://q.stock.sohu.com/zs/000001/index.shtml'],['zs_399001','深证成指','9790.20','-59.57','-0.60%','http://q.stock.sohu.com/zs/399001/index.shtml'],['zs_399101','中小板综','5253.22','-13.70','-0.26%','http://q.stock.sohu.com/zs/399101/index.shtml'],['zs_000003','B股指数','232.02','+1.91','0.83%','http://q.stock.sohu.com/zs/000003/index.shtml'],['zs_399003','成份B指','4425.99','-39.46','-0.88%','http://q.stock.sohu.com/zs/399003/index.shtml'],['zs_000011','沪市基金','3824.81','-21.85','-0.57%','http://q.stock.sohu.com/zs/000011/index.shtml'],['zs_399305','深市基金','4601.38','-25.05','-0.54%','http://q.stock.sohu.com/zs/399305/index.shtml'],['HSI','恒生指数','18872.56','-81.07','-0.43%','http://q.stock.sohu.com/hk/HSI/index.shtml'],['HSCCI','红筹指数','3789.30','-3.77','-0.10%','http://q.stock.sohu.com/hk/HSCCI/index.shtml'],['HSCEI','国企指数','9519.53','-55.27','-0.58%','http://q.stock.sohu.com/hk/HSCEI/index.shtml']])
PEAK_ODIA(['financeindexhq',[['zs_000001','上证指数','2289.79','-16.06','-0.70%','http://q.stock.sohu.com/zs/000001/index.shtml'],['zs_399001','深证成指','9790.20','-59.57','-0.60%','http://q.stock.sohu.com/zs/399001/index.shtml'],['zs_399101','中小板综','5253.22','-13.70','-0.26%','http://q.stock.sohu.com/zs/399101/index.shtml'],['zs_000003','沪市B股','232.02','+1.91','0.83%','http://q.stock.sohu.com/zs/000003/index.shtml'],['zs_399003','成份B指','4425.99','-39.46','-0.88%','http://q.stock.sohu.com/zs/399003/index.shtml'],['zs_000011','沪市基金','3824.81','-21.85','-0.57%','http://q.stock.sohu.com/zs/000011/index.shtml'],['zs_399305','深市基金','4601.38','-25.05','-0.54%','http://q.stock.sohu.com/zs/399305/index.shtml'],['HSI','恒生指数','18872.56','-81.07','-0.43%','http://q.stock.sohu.com/hk/HSI/index.shtml'],['HSCEI','国企指数','9519.53','-55.27','-0.58%','http://q.stock.sohu.com/hk/HSCEI/index.shtml'],['HSCCI','红筹指数','3789.30','-3.77','-0.10%','http://q.stock.sohu.com/hk/HSCCI/index.shtml']],[[['cn_600401','海润光伏','7.99','10.06%'],['cn_600978','宜华木业','5.27','7.55%'],['cn_600777','新潮实业','5.35','6.36%'],['cn_600596','新安股份','6.62','6.09%'],['cn_600657','信达地产','5.01','5.92%']],[['cn_601339','N百隆','12.33','-9.34%'],['cn_601908','京运通','8.60','-7.13%'],['cn_600495','晋西车轴','12.30','-6.32%'],['cn_600158','XD中体产','6.99','-6.30%'],['cn_600470','六国化工','10.42','-6.21%']],[['cn_002683','N宏大
','16.00','10.65%'],['cn_000736','重庆实业','10.85','10.04%'],['cn_002499','科林环保','21.43','10.01%'],['cn_300147','香雪制药','8.37','9.99%'],['cn_300266','兴源过滤','19.07','9.98%']],[['cn_002238','天威视讯','14.74','-9.40%'],['cn_002685','N华重机 ','9.08','-9.11%'],['cn_002682','N龙洲
','9.76','-7.92%'],['cn_300136','信维通信','15.36','-7.69%'],['cn_002616','长青集团','17.45','-6.03%']]],[['25','S板','8','10.16','+0.12','0.65%','111101','9321','cn_600733','S*ST前锋','18.26','+0.87','5.00%'],['22','房地产','143','7.69','+0.05','0.65%','','1117434','cn_000736','重庆实业','10.85','+0.99','10.04%'],['59','医药板块','188','16.54','+0.16','0.63%','6170241','874796','cn_300147','香雪制药','8.37','+0.76','9.99%'],['39','ST板块','139','7.18','+0.02','0.56%','3426392','203147','cn_600074','ST中达','3.07','+0.15','5.14%'],['291','重庆板块','27','10.57','+0.03','0.40%','1374186','139496','cn_000736','重庆实业','10.85','+0.99','10.04%']]])
---------------------------------------------
http://hq.sinajs.cn/list=s_sh000001 上证指数http://hq.sinajs.cn/list=s_sz399001 深证成指http://hq.sinajs.cn/list=int_hangseng 恒生指数http://hq.sinajs.cn/list=s_sz399300 沪生300http://hq.sinajs.cn/list=int_dji 道琼斯http://hq.sinajs.cn/list=int_nasdaq 纳斯达克http://hq.sinajs.cn/list=int_sp500 标普500http://hq.sinajs.cn/list=int_ftse 英金融时报指数
---------------------------------------------------------
var hq_str_hf_CL="83.0,83.0,83.0,22:47:46,82.0,,";
var hq_str_hf_GC=".00,11.00,22:47:46,97.,0,0,";
var hq_str_hf_SI="28.3,28.0,28.0,22:47:44,28.0,,";
var hq_str_hf_CAD=",-0.00,44.98,22:47:46,68.,1,1,";
var hq_str_hf_ZSD=",-0.00,93.00,22:47:34,85.,2,";
var hq_str_hf_S=".00,49.00,22:47:46,26.,0,";
var hq_str_hf_C="584.9,584.0,598.0,22:47:45,592.0,,";
var hq_str_hf_W="622.2,622.0,639.0,22:47:45,630.0,,";
var hq_str_USDCNY="16:58:22,6.3,6..2,6.5,美元人民币";
var hq_str_USDHKD="22:48:57,7.6,7..1,7.4,美元港元";
var hq_str_EURCNY="22:44:55,7.8,7..5,7.3,欧元人民币";
var hq_str_GBPCNY="22:44:55,9.7,9..3,9.2,英镑人民币";
var hq_str_USDJPY="22:48:56,79.50,79.50,79.38,0,79.38,79.69,79.15,79.50,美元日元";
var hq_str_EURUSD="22:48:57,1.8,1..9,1.8,欧元美元";
var hq_str_GBPUSD="22:48:57,1.2,1..7,1.7,英镑美元";
--------------
http://image.sinajs.cn/newchart/daily/n/sh601006.gif
http://image.sinajs.cn/newchart/weekly/n/sh601006.gif
http://image.sinajs.cn/newchart/monthly/n/sh601006.gif
http://image.sinajs.cn/newchart/min/n/sh000001.gif
这是一个人()写的java获得数据的代码:
String url = "http://hq.sinajs.cn/list=sh600151,sz000830,s_sh000001,s_sz399001,s_sz399106";
URL u = new URL(url);
byte[] b = new byte[256];
InputStream in =
ByteArrayOutputStream bo = new ByteArrayOutputStream();
while (true) {
in = u.openStream();
while ((i = in.read(b)) != -1) {
bo.write(b, 0, i);
String result = bo.toString();
String[] stocks = result.split(";");
for (String stock : stocks) {
String[] datas = stock.split(",");
//根据对照自己对应数据
bo.reset();
} catch (Exception e) {
System.out.println(e.getMessage());
} finally {
if (in != null) {
in.close();
} catch (Exception ex) {
没有更多推荐了,
加入CSDN,享受更精准的内容推荐,与500万程序员共同成长!

我要回帖

更多关于 股票数据 的文章

 

随机推荐