黄晓明炒股盈利吗 (黄晓明民间炒股高手)

黄晓明卷入18亿股票操作案,他会被罚破产吗?

这几天黄晓明又有一次成为了热搜人物,但是这次热搜的不是因为他演了什么热门大剧,而是卷入了一起18亿元的股票操作案。

黄晓明炒股最新消息,怎么和黄晓明一样玩转股票

事情回顾

8月10日,证监会发布公告,依法对高勇操纵市场案作出处罚,没收高勇违法所得897,387,345.82元,并处以897,387,345.82元罚款,合计近18亿元。

黄晓明炒股最新消息,怎么和黄晓明一样玩转股票

从披露信息来看,2015年1月-7月,高勇以20亿资金违法操纵精华制药股价,这20亿资金除了一方面源于其控制的信托账户,另一方面则是来源于黄某明、张某燕、张某、吴某江等14个自然人所出借的账户。

黄晓明炒股最新消息,怎么和黄晓明一样玩转股票

这里面的张某燕,黄某明,被大家认为就是明星黄晓明母子两。

8月11日,黄晓明工作室出来声明称,黄晓明并不认识高某,也未参与任何操纵股票行为。同时“未曾受过任何股票有关的处罚或介入过任何与股票有关的调查”。

8月12日,有关自媒体继续撰文《黄晓明的遗憾声明:虚伪和狂妄》,驳斥黄晓明方面的声明,直指对方玩文字游戏,黄晓明直接被打脸。

8月13日财新传媒报道,18亿元股票案里的自然人账户之一,确实为影视明星黄晓明名下账户,至此黄晓明第一波危机公关完全失败,网友“称赞”,黄晓明“演技太好”!

那么,这场不断发酵在娱乐圈与股票圈的大事件,是如何操纵的呢?- 技能get!

操盘手转行 -- 代客理财

谓代客理财,通俗地说,就是专业的理财机构或个人为客户提供理财服务,并收取酬金。 酬金包括基本费+盈利提成,管理费一般按年收取,费用率从1%-5%不等,盈利则根据理财的收益来约定分成。

这合作模式一般都是熟人介绍,市场上也有专门转介绍的掮客,他们会收取一些中间费。客户和真正的操盘手一般不直接联系,这样一旦出事了有利于规避风险。中间人一般都是双方非常信任的人,很多事情都是他们出面去谈,比如收益分成机制、规避风险等。

对于高操纵16个账户利用资金优势哄抬股价,现在这些方式被逐步淘汰了,证监会的大数据非常厉害,比如你用账户组集中资金优势连续拉涨停的方法,可能几年前没事,现在这种简单粗暴的手段已经很少人用了,单证监会的“特停”机制就能让你吃不了兜着走。“现在市场行情不佳,再加上证监会的严查,很多以前活跃的操盘手(账户)都休眠了。”

栗子说明:“代客理财”

高勇利用手中制的黄晓明等人的16个证券账户从事涉案交易,仅涉嫌操纵“精华制药”股票,半年时间非法获利8.97亿元。从证监会发布的公告来看,高勇账户组通过信托计划等方式放大资金杠杆,集中资金优势,以连续封涨停、连续交易等手段对“精华制药”实施了操纵行为。

当股民被连续拉的假象迷惑,开始疯狂冲进场时,高勇开始卖出股票。由于出货量太大,单边抛售容易引发股价暴跌,高勇账户组采取一边套现,一边买入拉升营造*家庄**洗盘假象,*引勾**更多散户进场接盘。

日前,证监会通另一起“朱一栋、李卫卫操纵大连电瓷”案中,被称为“华北第一操盘手”的李卫卫与朱一栋也是通过中间人介绍而达成委托代理关系。根据证监会的通报,李卫卫涉案账户组存在利用资金优势连续买卖,拉抬股价;虚假申报操纵开盘价;在自己控制的账户之间交易,影响交易量;上市公司配合发布利好信息,利用信息优势操纵股价等手段。

一名基金业人士告诉青报记者,代客理财的操盘团队大多游走在灰色地带,他们往往与内幕交易联系在一起。他们的操作手法一般比较激进,在一段时间内集中资金优势拉一只股票,基本没有什么风控机制,行情好的时候收益很高,可能短期翻倍,但行情不好的时候,也会亏损累累。就拿李卫卫案来说,他私自提高配资杠杆比例,最终导致配资账户的爆仓。实际上遇到市场不好的情况,操盘手被套牢也是常见的事,他们就是一味的进攻,没有防守。一旦市场大幅波动,就容易爆仓。这些操盘手如果不采取违法的手段,实际上要赚钱也并不容易。

中银律师事务所律师国亚表示,在目前的法律规定下,“代客理财”属于灰色地带。违法者的成本比较低,使得一些不法分子铤而走险。

另类炒股存在 -- 人工智能,与代客理财比 哪个手段更高明?

以下程序员看后会更真切读懂,非技术人员(如我)可以参看,毕竟阿尔法围棋(AlphaGo)是第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人,在股票领域,人工智能与代客理财操盘手,哪个更高明?

爬虫爬取股票数据

import requests
from bs4 import BeautifulSoup
import traceback
import re
def getHTMLText(url):
 try:
 user_agent = '自己的浏览器头部信息'
 headers = {'User-Agent': user_agent}
 r = requests.get(url,headers = headers,timeout = 30)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 return r.text
 except: 
 return ""
 
def getStockList(lst,stock_list_url):
 html = getHTMLText(stock_list_url)
 soup = BeautifulSoup(html,'html.parser')
 a = soup.find_all('a')
 for i in a:
 try:
 href = i.attrs['href']
 lst.append(re.findall(r"sh\d{6}",href)[0])
 #print(lst)
 except:
 continue
 
def getStockInfo(lst,stock_info_url,fpath):
 for stock in lst:
 url = stock_info_url + stock + '.html'
 html = getHTMLText(url)
 try:
 if html =="":
 continue
 infoDict = { }
 soup = BeautifulSoup(html,'html.parser')
 stockInfo = soup.find('div',attrs = {'class':'stock-bets'})
 if stockInfo == None:
 continue
 #print(stockInfo)
 name = stockInfo.find_all(attrs={'class':'bets-name'})[0]
 #print(name)
 infoDict.update({'股票名称': name.text.split()[0]})
 
 keyList = stockInfo.find_all('dt')
 valueList = stockInfo.find_all('dd')
 for i in range(len(keyList)):
 
 key = keyList[i].text
 val = valueList[i].text
 infoDict[key] = val
 with open(fpath,'a',encoding = 'utf-8') as f:
 f.write(str(infoDict) + '\n')
 except:
 traceback.print_exc()
 continue
 
 
 
def main():
 stock_list_url = 'http://quote.eastmoney.com/stocklist.html'
 stock_info_url = 'http://gupiao.baidu.com/stock/'
 output_file = 'D://Postgraduate//Python//python项目//Python网络爬虫与信息提取-中国大学MOOC//3 网络爬虫之实战//BaiduStockInfo.txt'
 slist = []
 getStockList(slist,stock_list_url)
 getStockInfo(slist,stock_info_url,output_file)
 
 
 
main()

教程:

Python-抓取股票信息 :https://edu.csdn.net/course/detail/5684(¥12)

Python:项目实战1:网络爬虫与抓取股票数据:https://edu.csdn.net/course/detail/7938(¥69)

数据科学实践 - 针对股票进行组合优化:https://edu.csdn.net/course/detail/7118(免费)

Python项目实战:数据可视化与股票数据分析:

https://edu.csdn.net/course/detail/7973 (¥39)

第一个getHTMLText函数的作用是获得所需的网页源代码
第二个getStockList函数的作用是获得东方财富网上面上海股票的全部代码,查看网页源代码可知,股票代码的数据放在'a'标签里面,如下图所示:
因此,首先用find_all方法遍历所有'a'标签,然后在'a'标签里面提取出href部分信息,在提取出来的href信息里面,用正则表达式匹配所需的信息,“sh\d{6}”,即徐亚匹配例如sh200010的信息
第三个函数需要根据第二个函数得到的股票代码,拼接出一个url,在这个特定的url的网页里,使用第一个函数解析网页,首先加一个判断,如果遇到html为空,那么要继续执行下去,同样,我们也需要再加一个判断(关键之处),遇到网页不存在,
但html源代码仍然是存在的,因此接下去这个命令
stockInfo = soup.find('div',attrs = {'class':'stock-bets'})

可能为空,如果不加判断,程序执行到这里就会报错而无法继续执行,因此添加:

if stockInfo == None:
 continue

Python爬虫筛选股票

最近开了个炒股账户,所以用Python写了个脚本筛选出2018年1季度(开盘价与收盘价平均值)到现在有盈利但盈利少于20%的低价股(价格可定制)。详见代码。Python为3.4版本。

教程:

Python-抓取股票信息 :https://edu.csdn.net/course/detail/5684(¥12)

Python:项目实战1:网络爬虫与抓取股票数据:https://edu.csdn.net/course/detail/7938(¥69)

数据科学实践 - 针对股票进行组合优化:https://edu.csdn.net/course/detail/7118(免费)

Python项目实战:数据可视化与股票数据分析:

https://edu.csdn.net/course/detail/7973 (¥39)

<span style="font-size:14px;">import http.cookiejar
import urllib.request
import json
import re
from bs4 import BeautifulSoup
 
 
def getOpener(head):
 # deal with the cookies
 cj = http.cookiejar.CookieJar()
 pro = urllib.request.HTTPCookieProcessor(cj)
 opener = urllib.request.build_opener(pro)
 header = []
 for key, value in head.items():
 elem = (key, value)
 header.append(elem)
 opener.addheaders=header
 return opener
 
 
head = {
 'Host':'vip.stock.finance.sina.com.cn',
 'Connection': 'Keep-Alive',
 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
 'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:38.0) Gecko/20100101 Firefox/38.0'
}
opener = getOpener(head)
baseurl='http://vip.stock.finance.sina.com.cn/quotes_service/api/json_v2.php/Market_Center.getHQNodeData?num=80&sort=trade&asc=1&node=hs_a&symbol=&_s_r_a=page&page='
stop=False
stopNum=18.01
num=0
for i in range(4,20):
 print("=================page:"+str(i)+"====================")
 url=baseurl+str(i)
 op=opener.open(url)
 data=op.read().decode('GBK')
 data=re.sub('ticktime:"(.*?)",','',data) 
 data=data.replace('{','{"').replace(':','":').replace(',',',"').replace(',"{"',',{"')
 #print(data)
 data=json.loads(data)
 for j in range(len(data)):
 trade=float(data[j]['trade'])
 if trade>0:
 if trade<float(stopNum):
 symbol=data[j]['symbol']
 name=data[j]['name']
 code=data[j]['code']
 trade2=data[j]['trade']
 pricechange=data[j]['pricechange']
 changepercent=data[j]['changepercent']
 volume=data[j]['volume']
 amount=data[j]['amount']
 c_url='http://money.finance.sina.com.cn/corp/go.php/vMS_MarketHistory/stockid/'+str(code)+'.phtml?year=2015&jidu=1'
 c_op=opener.open(c_url)
 c_data=c_op.read().decode("GBK")
 soup=BeautifulSoup(c_data)
 tabData=soup.find('table',id='FundHoldSharesTable')
 tabData=str(tabData)
 pattern=re.compile('<td><div align="center">(.*?)</div></td>', re.S)
 items=re.findall(pattern, tabData)
 sum=0
 total=0
 sum_num=0
 for item in items:
 try:
 value=float(item)
 total=total+1
 if total%2!=0:
 sum=sum+value
 sum_num=sum_num+1
 except:
 continue 
 if sum_num==0: 
 continue 
 avg=sum/sum_num
 price=float(trade2)
 print(name+" lastPrice:"+str(avg)+" currentPrice:"+str(price)+" changePrecent:"+str((price-avg)/avg))
 if (price-avg>0.0)&((price-avg)/avg<0.2):
 #print('*******************************') 
 print(' 股票名称:', name) 
 print(' 股票代码:', code) 
 
 print(' 当前价格:', trade2) 
 print(' 涨 跌:', pricechange) 
 print(' 涨 跌%:', changepercent) 
 print('成交量(手):', volume) 
 print('成交额(万):', amount) 
 num=num+1
 print('*************'+str(num)+'******************') 
 else:
 continue 
 else:
 stop=True
 break
 else:
 continue
 if stop==True:
 break 

祝福大家!