以前看过的一个里番名字大全,名字里好像带有学园(记不清了)

以前看过一部里番,记不清名字了【a1c吧】_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:10,172贴子:
以前看过一部里番,记不清名字了
大概是一个男的,在dvd店里上班,晚上在公园里看到很多情侣打炮,自己碰见了一个银短发的妹子,然后看着她睡觉的姿势撸管,然后被发现了,无奈把女的带回家。那女的有一种能力,能知道哪些女的渴望被强奸。估计都懂吧?叫什么来着
collaboration works please rape me
没干那个萝莉
图片来自:看过忘了,cg实用
please rape me(请来侵犯我吧!)
你说的是: プリーズ-○○○-ミー! ~千鸟悠真 ピーが!ピーを?ピーされちゃった! 编~还有后面第二集プリーズ-○○○-ミー! ~九条さくら ピーを…ピーに…ピーして下さい编~
请给我磁力
magnet:?xt=urn:btih:0b818c62bdfe74dcb8&dn=%5BCLOCKUP%5D+%E3%83%97%E3%83%AA%E3%83%BC%E3%82%BA%E3%83%BB%E3%83%AC%E2%97%8B%E3%83%97%E3%83%BB%E3%83%9F%E3%83%BC%EF%BC%81+%28%E3%82%AD%E3%83%A3%E3%83%A9%E3%82%AF%E3%82%BF%E3%83%BCCG%29.zip
表示前几天刚看完
贴吧热议榜
使用签名档&&
保存至快速回贴照着「铃木みら乃」这个关键词来补番,一天一部大概能看一个月。&br&&br&还有「Blue系列」:《True Blue》、《Innocent Blue》、《Dark Blue》、《Triangle Blue》。&br&&br&看完你要是没有变成大绅士,一定变成大贤者。&br&&br&当然你要是变成大绅士了……估计此生就戒不掉了。
照着「铃木みら乃」这个关键词来补番,一天一部大概能看一个月。 还有「Blue系列」:《True Blue》、《Innocent Blue》、《Dark Blue》、《Triangle Blue》。 看完你要是没有变成大绅士,一定变成大贤者。 当然你要是变成大绅士了……估计此生就戒不掉了。
&p&&b&里番的制作周期,成本和利润如何?&/b&&/p&&p&这个要分时代讨论:&/p&&p&80-90年代:周期长(半年一话),成本高,利润尚可&/p&&blockquote&全五话的淫魔妖女:
结束: &/blockquote&&p&00年代:周期短(一季度-二季度一话),成本不高,利润尚可&/p&&blockquote&全四话的魔法迦南
全十话的夜勤病栋
结束: 日&/blockquote&&p&10年代:周期短( 低于一季度一话 ),成本极低,利润不高&/p&&br&&p&虽然现在这个产业因为OVA体裁的淘汰而确实快死了,但即使略过上个世纪的作品,00年后的成人动画成本虽然不高,但是怎么着也不会比AV便宜的:&/p&&p&AV的费用构成就男优费、女优费、导演拍摄费用、场地费而已,满打满算300万日元都算大制作&/p&&p&——大制作成人动画里这300万翻个3倍轻而易举&/p&&br&&p&&b&名监督为何参与里番制作?&/b&&/p&&p&我记忆里除去80年代OVA初期的尝试阶段,90年代至今参与过成人动画、后在TV动画领域活跃的监督...&/p&&ul&&li&新房昭之 &/li&&li&大張正己&/li&&li&元永慶太郎
&/li&&li&高橋丈夫 &/li&&li&梅津泰臣 &/li&&li&よしもときんじ &/li&&li&金子ひらく &/li&&li&影山楙倫 &/li&&li&高橋ナオヒト &/li&&li&柳瀬雄之&/li&&li&村山公輔 &/li&&li&西島克彦
&/li&&li&水野和則 &/li&&li&菊地康仁
&/li&&li&高見明男 &/li&&li&村山靖&/li&&/ul&&br&&p&这上面,只有西岛克彦、大张正已、元永庆太郎、新房昭之、村山靖是名副其实在全年龄动画领域担任数部导演以后再拍黄片的,其他的拍黄片的时候......绝大多数都不是什么熟练的动画监督,更谈不上名监督的称呼。&/p&&p&除去以监督名义的担任成人动画监督的以上些人,还有若干在参与成人动画中以其他职位的,后来成为了TV动画监督的存在,比如奈叶系列的导演&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/2913& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&草川啓造&/a& (成人动画演出),新房昭之的高徒&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/2860& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&大沼心 &/a&(成人动画演出),昭和元禄落语心中的导演&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/7608& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&小俣真一 &/a&( &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/9303& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&バニラ&/a& 旗下多部成人动画制片人),FATE/UBW导演&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/12920& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&三浦貴博&/a&(成人动画原画)等等..&/p&&p&——所以几乎不存在&b&“名监督参与里番制作”&/b&这样的说法,出名了还拍什么黄片嘛。&/p&&p&这其中梅津泰臣、金子拓、よしもときんじ 是因为兴趣,大张正已、高见明男是因为兴趣和人脉,剩下的更多还是因为谋生。&/p&
里番的制作周期,成本和利润如何?这个要分时代讨论:80-90年代:周期长(半年一话),成本高,利润尚可全五话的淫魔妖女:
结束: 0年代:周期短(一季度-二季度一话),成本不高,利润尚可全四话的魔法迦南
&figure&&img src=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_b.jpg& data-rawwidth=&768& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_r.jpg&&&/figure&&p&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-abd42bbb61ee_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&558& data-rawheight=&315& class=&origin_image zh-lightbox-thumb& width=&558& data-original=&https://pic1.zhimg.com/v2-abd42bbb61ee_r.jpg&&&/figure&&p&作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章。这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能:&br&&/p&&p&1) 去除(爱情)动作片中的马赛克&/p&&p&2) 给(爱情)动作片中的女孩穿(tuo)衣服&/p&&p&&br&&/p&&h2&生成式模型&/h2&&p&上一篇《&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&用GAN生成二维样本的小例子&/a&》中已经简单介绍了GAN,这篇再简要回顾一下生成式模型,算是补全一个来龙去脉。&/p&&p&生成模型就是能够产生指定分布数据的模型,常见的生成式模型一般都会有一个用于产生样本的简单分布。例如一个均匀分布,根据要生成分布的概率密度函数,进行建模,让均匀分布中的样本经过变换得到指定分布的样本,这就可以算是最简单的生成式模型。比如下面例子:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1021& data-rawheight=&443& class=&origin_image zh-lightbox-thumb& width=&1021& data-original=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_r.jpg&&&/figure&&p&图中左边是一个自定义的概率密度函数,右边是相应的1w个样本的直方图,自定义分布和生成这些样本的代码如下:&br&&/p&&div class=&highlight&&&pre&&code class=&language-python&&&span&&/span&&span class=&kn&&from&/span& &span class=&nn&&functools&/span& &span class=&kn&&import&/span& &span class=&n&&partial&/span&
&span class=&kn&&import&/span& &span class=&nn&&numpy&/span&
&span class=&kn&&from&/span& &span class=&nn&&matplotlib&/span& &span class=&kn&&import&/span& &span class=&n&&pyplot&/span&
&span class=&c1&&# Define a PDF&/span&
&span class=&n&&x_samples&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&arange&/span&&span class=&p&&(&/span&&span class=&o&&-&/span&&span class=&mi&&3&/span&&span class=&p&&,&/span& &span class=&mf&&3.01&/span&&span class=&p&&,&/span& &span class=&mf&&0.01&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&round&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&+&/span& &span class=&mf&&3.5&/span&&span class=&p&&)&/span& &span class=&o&&/&/span& &span class=&mi&&3&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&mf&&0.5&/span& &span class=&o&&*&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&cos&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&pi&/span& &span class=&o&&*&/span& &span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&])&/span& &span class=&o&&+&/span& &span class=&mf&&0.5&/span&
&span class=&n&&PDF&/span& &span class=&o&&/=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&sum&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&c1&&# Calculate approximated CDF&/span&
&span class=&n&&CDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&cumulated&/span& &span class=&o&&=&/span& &span class=&mi&&0&/span&
&span class=&k&&for&/span& &span class=&n&&i&/span& &span class=&ow&&in&/span& &span class=&nb&&range&/span&&span class=&p&&(&/span&&span class=&n&&CDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&[&/span&&span class=&mi&&0&/span&&span class=&p&&]):&/span&
&span class=&n&&cumulated&/span& &span class=&o&&+=&/span& &span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span&
&span class=&n&&CDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&cumulated&/span&
&span class=&c1&&# Generate samples&/span&
&span class=&n&&generate&/span& &span class=&o&&=&/span& &span class=&n&&partial&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&interp&/span&&span class=&p&&,&/span& &span class=&n&&xp&/span&&span class=&o&&=&/span&&span class=&n&&CDF&/span&&span class=&p&&,&/span& &span class=&n&&fp&/span&&span class=&o&&=&/span&&span class=&n&&x_samples&/span&&span class=&p&&)&/span&
&span class=&n&&u_rv&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&p&&(&/span&&span class=&mi&&10000&/span&&span class=&p&&)&/span&
&span class=&n&&x&/span& &span class=&o&&=&/span& &span class=&n&&generate&/span&&span class=&p&&(&/span&&span class=&n&&u_rv&/span&&span class=&p&&)&/span&
&span class=&c1&&# Visualization&/span&
&span class=&n&&fig&/span&&span class=&p&&,&/span& &span class=&p&&(&/span&&span class=&n&&ax0&/span&&span class=&p&&,&/span& &span class=&n&&ax1&/span&&span class=&p&&)&/span& &span class=&o&&=&/span& &span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&subplots&/span&&span class=&p&&(&/span&&span class=&n&&ncols&/span&&span class=&o&&=&/span&&span class=&mi&&2&/span&&span class=&p&&,&/span& &span class=&n&&figsize&/span&&span class=&o&&=&/span&&span class=&p&&(&/span&&span class=&mi&&9&/span&&span class=&p&&,&/span& &span class=&mi&&4&/span&&span class=&p&&))&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&plot&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&,&/span& &span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&axis&/span&&span class=&p&&([&/span&&span class=&o&&-&/span&&span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mi&&0&/span&&span class=&p&&,&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&max&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&&span class=&o&&*&/span&&span class=&mf&&1.1&/span&&span class=&p&&])&/span&
&span class=&n&&ax1&/span&&span class=&o&&.&/span&&span class=&n&&hist&/span&&span class=&p&&(&/span&&span class=&n&&x&/span&&span class=&p&&,&/span& &span class=&mi&&100&/span&&span class=&p&&)&/span&
&span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&show&/span&&span class=&p&&()&/span&
&/code&&/pre&&/div&&p&对于一些简单的情况,我们会假设已知有模型可以很好的对分布进行建模,缺少的只是合适的参数。这时候很自然只要根据观测到的样本,学习参数让当前观测到的样本下的似然函数最大,这就是最大似然估计(&b&M&/b&aximum &b&L&/b&ikelihood &b&E&/b&stimation):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7B%5Ctheta%7D%3D%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+P%28%5Cbm%7Bx%7D%7C%5Ctheta%29+%3D+%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+%5Cprod_%7Bi%3D1%7D%5E%7Bn%7DP%28x_i%7C%5Ctheta%29+& alt=&\hat{\theta}=\operatorname*{argmax}_{\theta} P(\bm{x}|\theta) = \operatorname*{argmax}_{\theta} \prod_{i=1}^{n}P(x_i|\theta) & eeimg=&1&&&/p&&p&MLE是一个最基本的思路,实践中用得很多的还有KL散度(Kullback–Leibler divergence),假设真实分布是P,采样分布是Q,则KL散度为:&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+& alt=&D_{KL}(P||Q)=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} & eeimg=&1&&&/p&&p&从公式也能看出来,KL散度描述的是两个分布的差异程度。换个角度来看,让产生的样本和原始分布接近,也就是要让这俩的差异减小,所以最小化KL散度就等同于MLE。从公式上来看的话,我们考虑把公式具体展开一下:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2B%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BP%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +\sum_{x\in\Omega}P({x})\log{P(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&公式的第二项就是熵,先不管这项,用H(P)表示。接下来考虑一个小trick:从Q中抽样n个样本&img src=&https://www.zhihu.com/equation?tex=%7Bx_1%2Cx_2%2C...%2Cx_n%7D& alt=&{x_1,x_2,...,x_n}& eeimg=&1&&,来估算P(x)的经验值(empirical density function):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7BP%7D%28x%29%3D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29& alt=&\hat{P}(x)=\frac 1 n \sum_{i=1}^n \delta(x_i-x)& eeimg=&1&&&/p&&p&其中&img src=&https://www.zhihu.com/equation?tex=%5Cdelta%28%5Ccdot%29& alt=&\delta(\cdot)& eeimg=&1&&是狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数,把这项替换到上面公式的P(x):&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D-%5Csum_%7Bx%5Cin%5COmega%7D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5C%5C+%26+%3D-%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=-\sum_{x\in\Omega}\frac 1 n \sum_{i=1}^n \delta(x_i-x)\log{Q(x)} +H(P) \\ & =-\frac 1 n \sum_{i=1}^n \sum_{x\in\Omega} \delta(x_i-x)\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&因为是离散的采样值,所以&img src=&https://www.zhihu.com/equation?tex=%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29& alt=&\sum_{x\in\Omega} \delta(x_i-x)& eeimg=&1&&中只有&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&的时候狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数才为1,所以考虑&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&时这项直接化为1:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29+%3D-%5Cfrac+1+n%5Csum_%7Bi%3D1%7D%5En+%5Clog%7BQ%28x_i%29%7D+%2BH%28P%29& alt=&D_{KL}(P||Q) =-\frac 1 n\sum_{i=1}^n \log{Q(x_i)} +H(P)& eeimg=&1&&&/p&&p&第一项正是似然的负对数形式。&/p&&p&说了些公式似乎跑得有点远了,其实要表达还是那个简单的意思:通过减小两个分布的差异可以让一个分布逼近另一个分布。仔细想想,这正是GAN里面adversarial loss的做法。&/p&&p&很多情况下我们面临的是更为复杂的分布,比如&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&上篇文章&/a&中的例子,又或是实际场景中更复杂的情况,比如生成不同人脸的图像。这时候,作为具有universal approximation性质的神经网络是一个看上去不错的选择[1]:&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1561& data-rawheight=&549& class=&origin_image zh-lightbox-thumb& width=&1561& data-original=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_r.jpg&&&/figure&&p&所以虽然GAN里面同时包含了生成网络和判别网络,但本质来说GAN的目的还是生成模型。从生成式模型的角度,Ian Goodfellow总结过一个和神经网络相关生成式方法的“家谱”[1]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&498& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_r.jpg&&&/figure&&p&在这其中,当下最流行的就是GAN和&b&V&/b&ariational &b&A&/b&uto&b&E&/b&ncoder(VAE),两种方法的一个简明示意如下[3]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&568& data-rawheight=&274& class=&origin_image zh-lightbox-thumb& width=&568& data-original=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_r.jpg&&&/figure&&p&本篇不打算展开讲什么是VAE,不过通过这个图,和名字中的autoencoder也大概能知道,VAE中生成的loss是基于重建误差的。而只基于重建误差的图像生成,都或多或少会有图像模糊的缺点,因为误差通常都是针对全局。比如基于MSE(Mean Squared Error)的方法用来生成超分辨率图像,容易出现下面的情况[4]:&/p&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&892& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&892& data-original=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_r.jpg&&&/figure&&p&在这个二维示意中,真实数据分布在一个U形的流形上,而MSE系的方法因为loss的形式往往会得到一个接近平均值所在的位置(蓝色框)。&/p&&p&GAN在这方面则完爆其他方法,因为目标分布在流形上。所以只要大概收敛了,就算生成的图像都看不出是个啥,清晰度常常是有保证的,而这正是去除女优身上马赛克的理想特性!&/p&&p&&br&&/p&&h2&马赛克-&清晰画面:超分辨率(Super Resolution)问题&/h2&&p&说了好些铺垫,终于要进入正题了。首先明确,去马赛克其实是个图像超分辨率问题,也就是如何在低分辨率图像基础上得到更高分辨率的图像:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-31c84b42ad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&784& data-rawheight=&324& class=&origin_image zh-lightbox-thumb& width=&784& data-original=&https://pic2.zhimg.com/v2-31c84b42ad_r.jpg&&&/figure&&p&视频中超分辨率实现的一个套路是通过不同帧的低分辨率画面猜测超分辨率的画面,有兴趣了解这个思想的朋友可以参考我之前的一个答案:&a href=&https://www.zhihu.com/question//answer/& class=&internal&&如何通过多帧影像进行超分辨率重构? &/a& &/p&&p&不过基于多帧影像的方法对于女优身上的马赛克并不是很适用,所以这篇要讲的是基于单帧图像的超分辨率方法。&/p&&h2&SRGAN&/h2&&p&说到基于GAN的超分辨率的方法,就不能不提到SRGAN[4]:《Photo-Realistic Single Image &b&S&/b&uper-&b&R&/b&esolution Using a &b&G&/b&enerative &b&A&/b&dversarial&br&&b&N&/b&etwork》。这个工作的思路是:基于像素的MSE loss往往会得到大体正确,但是高频成分模糊的结果。所以只要重建低频成分的图像内容,然后靠GAN来补全高频的细节内容,就可以了:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&446& data-rawheight=&131& class=&origin_image zh-lightbox-thumb& width=&446& data-original=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_r.jpg&&&/figure&&p&这个思路其实和最早基于深度网络的风格迁移的思路很像(有兴趣的读者可以参考我之前文章&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&瞎谈CNN:通过优化求解输入图像&/a&的最后一部分),其中重建内容的content loss是原始图像和低分辨率图像在VGG网络中的各个ReLU层的激活值的差异:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&529& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&529& data-original=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_r.jpg&&&/figure&&p&生成细节adversarial loss就是GAN用来判别是原始图还是生成图的loss:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fa5af2a10fe9a4dadfb04_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&394& data-rawheight=&89& class=&content_image& width=&394&&&/figure&&p&把这两种loss放一起,取个名叫perceptual loss。训练的网络结构如下:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&780& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&780& data-original=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_r.jpg&&&/figure&&p&正是上篇文章中讲过的C-GAN,条件C就是低分辨率的图片。SRGAN生成的超分辨率图像虽然PSNR等和原图直接比较的传统量化指标并不是最好,但就视觉效果,尤其是细节上,胜过其他方法很多。比如下面是作者对比bicubic插值和基于ResNet特征重建的超分辨率的结果:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&981& data-rawheight=&392& class=&origin_image zh-lightbox-thumb& width=&981& data-original=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_r.jpg&&&/figure&&p&可以看到虽然很多细节都和原始图片不一样,不过看上去很和谐,并且细节的丰富程度远胜于SRResNet。这些栩栩如生的细节,可以看作是GAN根据学习到的分布信息“联想”出来的。&/p&&p&对于更看重“看上去好看”的超分辨率应用,SRGAN显然是很合适的。当然对于一些更看重重建指标的应用,比如超分辨率恢复嫌疑犯面部细节,SRGAN就不可以了。&/p&&h2&pix2pix&/h2&&p&虽然专门用了一节讲SRGAN,但本文用的方法其实是pix2pix[5]。这项工作刚在arxiv上发布就引起了不小的关注,它巧妙的利用GAN的框架解决了通用的Image-to-Image translation的问题。举例来说,在不改变分辨率的情况下:把照片变成油画风格;把白天的照片变成晚上;用色块对图片进行分割或者倒过来;为黑白照片上色;…每个任务都有专门针对性的方法和相关研究,但其实总体来看,都是像素到像素的一种映射啊,其实可以看作是一个问题。这篇文章的巧妙,就在于提出了pix2pix的方法,一个框架,解决所有这些问题。方法的示意图如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&485& data-rawheight=&437& class=&origin_image zh-lightbox-thumb& width=&485& data-original=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_r.jpg&&&/figure&&p&就是一个Conditional GAN,条件C是输入的图片。除了直接用C-GAN,这项工作还有两个改进:&/p&&p&1)&b&利用U-Net结构生成细节更好的图片&/b&[6]&/p&&figure&&img src=&https://pic4.zhimg.com/v2-beb074bebbfa0db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&907& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&907& data-original=&https://pic4.zhimg.com/v2-beb074bebbfa0db_r.jpg&&&/figure&&p&U-Net是德国Freiburg大学模式识别和图像处理组提出的一种全卷积结构。和常见的先降采样到低维度,再升采样到原始分辨率的编解码(Encoder-Decoder)结构的网络相比,U-Net的区别是加入skip-connection,对应的feature maps和decode之后的同样大小的feature maps按通道拼(concatenate)一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显,下面是pix2pix文中给出的一个效果对比:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&563& data-rawheight=&307& class=&origin_image zh-lightbox-thumb& width=&563& data-original=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_r.jpg&&&/figure&&p&可以看到,各种不同尺度的信息都得到了很大程度的保留。&/p&&p&2)&b&利用马尔科夫性的判别器(PatchGAN)&br&&/b&&/p&&p&pix2pix和SRGAN的一个异曲同工的地方是都有用重建解决低频成分,用GAN解决高频成分的想法。在pix2pix中,这个思想主要体现在两个地方。一个是loss函数,加入了L1 loss用来让生成的图片和训练的目标图片尽量相似,而图像中高频的细节部分则交由GAN来处理:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&447& data-rawheight=&51& class=&origin_image zh-lightbox-thumb& width=&447& data-original=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_r.jpg&&&/figure&&p&还有一个就是&b&PatchGAN&/b&,也就是具体的GAN中用来判别是否生成图的方法。PatchGAN的思想是,既然GAN只负责处理低频成分,那么判别器就没必要以一整张图作为输入,只需要对NxN的一个图像patch去进行判别就可以了。这也是为什么叫Markovian discriminator,因为在patch以外的部分认为和本patch互相独立。&/p&&p&具体实现的时候,作者使用的是一个NxN输入的全卷积小网络,最后一层每个像素过sigmoid输出为真的概率,然后用BCEloss计算得到最终loss。这样做的好处是因为输入的维度大大降低,所以参数量少,运算速度也比直接输入一张快,并且可以计算任意大小的图。作者对比了不同大小patch的结果,对于256x256的输入,patch大小在70x70的时候,从视觉上看结果就和直接把整张图片作为判别器输入没什么区别了:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&107& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_r.jpg&&&/figure&&h2&生成带局部马赛克的训练数据&/h2&&p&利用pix2pix,只要准备好无码和相应的有码图片就可以训练去马赛克的模型了,就是这么简单。那么问题是,如何生成有马赛克的图片?&/p&&p&有毅力的话,可以手动加马赛克,这样最为精准。这节介绍一个不那么准,但是比随机强的方法:利用分类模型的激活区域进行自动马赛克标注。&/p&&p&基本思想是利用一个可以识别需要打码图像的分类模型,提取出这个模型中对应类的CAM(&b&C&/b&lass &b&A&/b&ctivation &b&M&/b&ap)[7],然后用马赛克遮住响应最高的区域即可。这里简单说一下什么是CAM,对于最后一层是全局池化(平均或最大都可以)的CNN结构,池化后的feature map相当于是做了个加权相加来计算最终的每个类别进入softmax之前的激活值。CAM的思路是,把这个权重在池化前的feature map上按像素加权相加,最后得到的单张的激活图就可以携带激活当前类别的一些位置信息,这相当于一种弱监督(classification--&localization):&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fd28f0b871bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&660& data-rawheight=&314& class=&origin_image zh-lightbox-thumb& width=&660& data-original=&https://pic4.zhimg.com/v2-fd28f0b871bd_r.jpg&&&/figure&&p&上图是一个CAM的示意,用澳洲梗类别的CAM,放大到原图大小,可以看到小狗所在的区域大致是激活响应最高的区域。&/p&&p&那么就缺一个可以识别XXX图片的模型了,网上还恰好就有个现成的,yahoo于2016年发布的开源色情图片识别模型Open NSFW(&b&N&/b&ot &b&S&/b&afe &b&F&/b&or &b&W&/b&ork):&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/yahoo/open_nsfw& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&yahoo/open_nsfw&/a&&/p&&p&CAM的实现并不难,结合Open NSFW自动打码的代码和使用放在了这里:&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/frombeijingwithlove/dlcv_for_beginners/tree/master/random_bonus/generate_mosaic_for_porno_images& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&给XX图片生成马赛克&/a&&/p&&p&&br&&/p&&p&(成功打码的)效果差不多是下面这样子:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&768& data-rawheight=&256& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_r.jpg&&&/figure&&h2&去除(爱情)动作片中的马赛克&/h2&&p&这没什么好说的了,一行代码都不用改,只需要按照前面的步骤把数据准备好,然后按照pix2pix官方的使用方法训练就可以了:&/p&&p&Torch版pix2pix:&a href=&https://link.zhihu.com/?target=https%3A//github.com/phillipi/pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&phillipi/pix2pix&/a&&/p&&p&pyTorch版pix2pix(Cycle-GAN二合一版):&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/pytorch-CycleGAN-and-pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/pytorch-CycleGAN-and-pix2pix&/a&&/p&&p&从D盘里随随便便找了几千张图片,用来执行了一下自动打码和pix2pix训练(默认参数),效果是下面这样:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&814& data-rawheight=&691& class=&origin_image zh-lightbox-thumb& width=&814& data-original=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_r.jpg&&&/figure&&p&什么?你问说好给女优去马赛克呢?女优照片呢?&/p&&figure&&img src=&https://pic4.zhimg.com/v2-480fb8a4dcfc7a4f92ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&75& data-rawheight=&60& class=&content_image& width=&75&&&/figure&&p&还是要说一下,在真人照片上的效果比蘑菇和花强。&/p&&h2&对偶学习(Dual Learning)&/h2&&p&去马赛克已经讲完了,接下来就是给女孩穿(tuo)衣服了,动手之前,还是先讲一下铺垫:&b&对偶学习&/b&和&b&Cycle-GAN&/b&。&/p&&p&对偶学习是MSRA于2016年提出的一种用于机器翻译的增强学习方法[8],目的是解决海量数据配对标注的难题,个人觉得算是一种弱监督方法(不过看到大多数文献算作无监督)。以机器翻译为例,对偶学习基本思想如下图[9]:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&866& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&866& data-original=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_r.jpg&&&/figure&&p&左边的灰衣男只懂英语,右边的黑衣女只懂中文,现在的任务就是,要学习如何翻译英语到中文。对偶学习解决这个问题的思路是:给定一个模型&img src=&https://www.zhihu.com/equation?tex=f%3Ax%5Crightarrow+y& alt=&f:x\rightarrow y& eeimg=&1&&一上来无法知道f翻译得是否正确,但是如果考虑上&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&的对偶问题&img src=&https://www.zhihu.com/equation?tex=g%3Ay%5Crightarrow+x& alt=&g:y\rightarrow x& eeimg=&1&&,那么我可以尝试翻译一个英文句子到中文,再翻译回来。这种转了一圈的结果&img src=&https://www.zhihu.com/equation?tex=x%27%3Dg%28f%28x%29%29& alt=&x'=g(f(x))& eeimg=&1&&,灰衣男是可以用一个标准(BLEU)判断x'和x是否一个意思,并且把结果的一致性反馈给这两个模型进行改进。同样的,从中文取个句子,这样循环翻译一遍,两个模型又能从黑衣女那里获取反馈并改进模型。其实这就是强化学习的过程,每次翻译就是一个action,每个action会从环境(灰衣男或黑衣女)中获取reward,对模型进行改进,直至收敛。&/p&&p&也许有的人看到这里会觉得和上世纪提出的Co-training很像,这个在知乎上也有讨论:&/p&&p&&a href=&https://www.zhihu.com/question/& class=&internal&&如何理解刘铁岩老师团队在NIPS 2016上提出的对偶学习(Dual Learning)?&/a&&/p&&p&个人觉得还是不一样的,Co-Training是一种multi-view方法,比如一个输入x,如果看作是两个拼一起的特征&img src=&https://www.zhihu.com/equation?tex=x%3D%28x_1%2Cx_2%29& alt=&x=(x_1,x_2)& eeimg=&1&&,并且假设&img src=&https://www.zhihu.com/equation?tex=x_1& alt=&x_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=x_2& alt=&x_2& eeimg=&1&&互相独立,那么这时候训练两个分类器&img src=&https://www.zhihu.com/equation?tex=f_1%28%5Ccdot%29& alt=&f_1(\cdot)& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2%28%5Ccdot%29& alt=&f_2(\cdot)& eeimg=&1&&对于任意样本x应该有&img src=&https://www.zhihu.com/equation?tex=f_1%28x_1%29%3Df_2%28x_2%29& alt=&f_1(x_1)=f_2(x_2)& eeimg=&1&&。这对没有标注的样本是很有用的,相当于利用了同一个样本分类结果就应该一样的隐含约束。所以Co-Training的典型场景是少量标注+大量未标注的半监督场景。并且&img src=&https://www.zhihu.com/equation?tex=f_1& alt=&f_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2& alt=&f_2& eeimg=&1&&其实是两个不同,但是domain指向相同的任务。而Dual Learning中&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=g& alt=&g& eeimg=&1&&是对偶任务,利用的隐含约束是&img src=&https://www.zhihu.com/equation?tex=x%5Crightarrow+y%5Crightarrow+x& alt=&x\rightarrow y\rightarrow x& eeimg=&1&&的cycle consistency。对输入的特征也没有像Co-Training有那么明确的假设,学习方法上也不一样,Dual Learning算是强化学习。&/p&&h2&CycleGAN和未配对图像翻译(Unpaired Image-to-Image Translation)&/h2&&p&CycleGAN,翻译过来就是:轮着干,是结合了对偶学习和GAN一个很直接而巧妙的想法[10],示意图如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&838& data-rawheight=&216& class=&origin_image zh-lightbox-thumb& width=&838& data-original=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_r.jpg&&&/figure&&p&X和Y分别是两种不同类型图的集合,比如穿衣服的女优和没穿衣服的女优。所以给定一张穿了衣服的女优,要变成没穿衣服的样子,就是个图片翻译问题。CycleGAN示意图中(b)和(c)就是Dual Learning:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-de51cac58b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&347& data-rawheight=&62& class=&content_image& width=&347&&&/figure&&p&在Dual Learning基础上,又加入了两个判别器&img src=&https://www.zhihu.com/equation?tex=D_X& alt=&D_X& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=D_Y& alt=&D_Y& eeimg=&1&&用来进行对抗训练,让翻译过来的图片尽量逼近当前集合中的图片:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&442& data-rawheight=&59& class=&origin_image zh-lightbox-thumb& width=&442& data-original=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_r.jpg&&&/figure&&p&全考虑一起,最终的loss是:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e6d99e7edea969da3dad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&357& data-rawheight=&87& class=&content_image& width=&357&&&/figure&&p&也许有人会问,那不加cycle-consistency,直接用GAN学习一个&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&的映射,让生成的Y的样本尽量毕竟Y里本身的样本可不可以呢?这个作者在文中也讨论了,会产生GAN训练中容易发生的mode collapse问题。mode collapse问题的一个简单示意如下[1]:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&262& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_r.jpg&&&/figure&&p&上边的是真实分布,下边的是学习到的分布,可以看到学习到的分布只是完整分布的一部分,这个叫做partial mode collapse,是训练不收敛情况中常见的一种。如果是完全的mode collapse,就是说生成模型得到的都是几乎一样的输出。而加入Cycle-consistency会让一个domain里不同的样本都尽量映射到另一个domain里不同的地方,理想情况就是双射(bijection)。直观来理解,如果通过&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&都映射在Y中同一个点,那么这个点y通过&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&映射回来显然不可能是多个不同的x,所以加入cycle-consistency就帮助避免了mode collapse。这个问题在另一篇和CycleGAN其实本质上没什么不同的方法DiscoGAN中有更详细的讨论[11],有兴趣的话可以参考。&/p&&p&&br&&/p&&p&有一点值得注意的是,虽然名字叫CycleGAN,并且套路也和C-GAN很像,但是其实只有adversarial,并没有generative。因为严格来说只是学习了&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&的mapping,所谓的generative network里并没有随机性。有一个和CycleGAN以及DiscoGAN其实本质上也没什么不同的方法叫DualGAN[12],倒是通过dropout把随机性加上了。不过所有加了随机性产生的样本和原始样本间的cycle-consistency用的还是l1 loss,总觉得这样不是很对劲。当然现在GAN这么热门,其实只要是用了adversarial loss的基本都会取个名字叫XXGAN,也许是可以增加投稿命中率。&/p&&p&另外上节中提到了Co-Training,感觉这里也应该提一下CoGAN[13],因为名字有些相似,并且也可以用于未配对的图像翻译。CoGAN的大体思想是:如果两个Domain之间可以互相映射,那么一定有一些特征是共有的。比如男人和女人,虽然普遍可以从长相区分,但不变的是都有两个眼睛一个鼻子一张嘴等等。所以可以在生成的时候,把生成共有特征和各自特征的部分分开,示意图如下:&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&758& data-rawheight=&207& class=&origin_image zh-lightbox-thumb& width=&758& data-original=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_r.jpg&&&/figure&&p&其实就是两个GAN结构,其中生成网络和判别网络中比较高层的部分都采用了权值共享(虚线相连的部分),没有全职共享的部分分别处理不同的domain。这样每次就可以根据训练的domain生成一个样本在两个domain中不同的对应,比如戴眼镜和没戴眼镜:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&791& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&791& data-original=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_r.jpg&&&/figure&&p&分别有了共有特征和各自domain特征,那么做mapping的思路也就很直接了[14]:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&210& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_r.jpg&&&/figure&&p&在GAN前边加了个domain encoder,然后对每个domain能得到三种样本给判别器区分:直接采样,重建采样,从另一个domain中transfer后的重建采样。训练好之后,用一个domain的encoder+另一个domain的generator就很自然的实现了不同domain的转换。用在图像翻译上的效果如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&444& data-rawheight=&544& class=&origin_image zh-lightbox-thumb& width=&444& data-original=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_r.jpg&&&/figure&&p&还有个巧妙的思路,是把CoGAN拆开,不同domain作为C-GAN条件的更加显式的做法[15]:&/p&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-ddec16d502c94f91ea35_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&883& data-rawheight=&398& class=&origin_image zh-lightbox-thumb& width=&883& data-original=&https://pic1.zhimg.com/v2-ddec16d502c94f91ea35_r.jpg&&&/figure&&p&第一步用噪声Z作为和domain无关的共享表征对应的latent noise,domain信息作为条件C训练一个C-GAN。第二步,训练一个encoder,利用和常见的encode-decode结构相反的decode(generate)-encode结构。学习好的encoder可以结合domain信息,把输入图像中和domain无关的共享特征提取出来。第三步,把前两步训练好的encoder和decoder(generator)连一起,就可以根据domain进行图像翻译了。&/p&&p&CoGAN一系的方法虽然结构看起来更复杂,但个人感觉理解起来要比dual系的方法更直接,并且有latent space,可解释性和属性对应也好一些。&/p&&p&又扯远了,还是回到正题:&/p&&p&&br&&/p&&h2&给女优穿上衣服&/h2&&p&其实同样没什么好说的,Cycle-GAN和pix2pix的作者是一拨人,文档都写得非常棒,准备好数据,分成穿衣服的和没穿衣服的两组,按照文档的步骤训练就可以:&/p&&p&Torch版Cycle-GAN:&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/CycleGAN& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/CycleGAN&/a&&/p&&p&pyTorch版Cycle-GAN(pix2pix二合一版):&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/pytorch-CycleGAN-and-pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/pytorch-CycleGAN-and-pix2pix&/a&&/p&&p&Cycle-GAN收敛不易,我用了128x128分辨率训练了穿衣服和没穿衣服的女优各一千多张,同样是默认参数训练了120个epoch,最后小部分成功“穿衣服”的结果如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fee34d66c386e0e01e5804_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1117& data-rawheight=&192& class=&origin_image zh-lightbox-thumb& width=&1117& data-original=&https://pic4.zhimg.com/v2-fee34d66c386e0e01e5804_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-de57c5ebefa4251ee3caa1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1117& data-rawheight=&192& class=&origin_image zh-lightbox-thumb& width=&1117& data-original=&https://pic4.zhimg.com/v2-de57c5ebefa4251ee3caa1_r.jpg&&&/figure&&p&虽然都有些突兀,但好歹是穿上衣服了。注意马赛克不是图片里就有的,是我后来加上去的。&/p&&p&那么,脱衣服的例子在哪里?&/p&&figure&&img src=&https://pic4.zhimg.com/v2-480fb8a4dcfc7a4f92ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&75& data-rawheight=&60& class=&content_image& width=&75&&&/figure&&h2&参考文献&/h2&&p&[1] I. Goodfellow. Nips 2016 tutorial: Generative adversarial networks. arXiv preprint arXiv:, 2016.&/p&&p&[2] A. B. L. Larsen, S. K. S?nderby, Generating Faces with Torch. &a href=&https://link.zhihu.com/?target=http%3A//torch.ch/blog//gan.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Torch | Generating Faces with Torch&/a&&/p&&p&[3] A. B. L. Larsen, S. K. S?nderby, H. Larochelle, and O. Winther. Autoencoding beyond pixels using a&br&learned similarity metric. In ICML, pages , 2016.&br&&/p&&p&[4] C. Ledig, L. Theis, F. Huszar, J. Caballero, A. Aitken, A. Tejani, J. Totz, Z. Wang, and W. Shi. Photo-realistic single image super-resolution using a generative adversarial network. arXiv:, 2016.&/p&&p&[5] P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros. Image-to-image translation with conditional adversarial networks. arxiv, 2016. &/p&&p&[6] O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. In MICCAI, pages 234–241. Springer, 2015.&/p&&p&[7] B. Zhou, A. Khosla, A. Lapedriza, A. Oliva, and A. Torralba. Learning deep features for discriminative localization. arXiv preprint arXiv:, 2015.&/p&&p&[8] He, D., Xia, Y., Qin, T., Wang, L., Yu, N., Liu, T.-Y., and Ma, W.-Y. (2016a). Dual learning for machine translation. In the Annual Conference on Neural Information Processing Systems (NIPS), 2016.&/p&&p&&br&&/p&&p&[9] &a href=&https://link.zhihu.com/?target=http%3A//www.dsrg.stuorg.iastate.edu/wp-content/uploads/2017/02/dual-learning_-pushing-the-new-frontier-of-artificial-intelligence-tieyan-liu.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&& Tie-Yan Liu, Dual Learning: Pushing the New Frontier of Artificial Intelligence, MIFS 2016&/a& &/p&&p&[10] J.-Y. Zhu, T. Park, P. Isola, and A. A. Efros. Unpaired image-to-image translation using cycle-consistent adversarial networkss. arXiv preprint arXiv:, 2017.&/p&&p&[11] T. Kim, M. Cha, H. Kim, J. Lee, and J. Kim. Learning to Discover Cross-Domain Relations with Generative Adversarial Networks. ArXiv e-prints, Mar. 2017.&/p&&p&&br&&/p&&p&[12] Z. Yi, H. Zhang, P. T. Gong, et al. DualGAN: Unsupervised dual learning for image-to-image translation. arXiv preprint arXiv:, 2017.&/p&&p&&br&&/p&&p&[13] M.-Y. Liu and O. Tuzel. Coupled generative adversarial networks. In Advances in Neural Information Processing Systems (NIPS), 2016.&/p&&p&[14] M.-Y. Liu, T. Breuel, and J. Kautz. Unsupervised image-to-image translation networks. arXiv preprint arXiv:, 2017.&/p&&p&[15] Dong, H., Neekhara, P., Wu, C., Guo, Y.: Unsupervised image-to-image translation with generative adversarial networks. arXiv preprint arXiv:, 2017.&/p&&p&=========== 分割线: ===========&/p&&p&上周日发的时候也想到了可能会有许多人对这个话题感兴趣,但没想到超过了1.5W赞这么多,大概看了看评论,做一些补充:&/p&&p&&b&1) &/b&马赛克训练数据:对于一般的机器学习问题,都是分布越简单越容易,遵循这个原则,我用的约束是单人照片,具体方法是:先找一个Pascal VOC训练好的SSD代码,然后SSD筛选了一批每张图里只能检测到一个人的。&/p&&p&最后在真人照片上的效果看上去还是不错的,我没有做过量化评估,大体来说看上去挺像的要超过一半,非常逼真的可能有5%~10%。两人以上战斗的动作画面我没有评估过。&/p&&p&&b&2)&/b&穿(tuo)衣训练数据:因为收敛很难,所以数据的加了更多约束:只用女性单人正面照片。同样通过SSD检测出单人照片,同时考虑person框的宽高比小于1的且框内能检测到人脸的(OpenCV的人脸检测)。这样尽量筛选出一批面向镜头,身体占画面比接近的照片。&/p&&p&最后的效果我在原文中也提到过,只有小部分能成功穿上(tuo)衣服,具体我也没有量化统计过,大概100张里两三张吧,大部分都是身上出现了看上去有点像衣服的线条或是另一个人的胸部。考虑到我最后筛选出的图片人物占画面比仍然有很大的变化,很可能我的模型就是遇到了文中提到的partial mode collapse的问题。&/p&&p&如果有更好的办法筛选出人物大小差不多的照片,效果应该能提升不少。比如我在用SSD筛选的时候如果考虑宽高比更小一些,筛选出的照片看上去会更加一致,不过我资源不太够,这样做后训练集就只有不到300张,资源够的老司机们有兴趣可以试试。&/p&&p&&br&&/p&&p&&b&3)&/b&预训练模型有没有?有,但是我研读了中华人民共和国刑法第三百六十三、三百六十四和三百六十六条,完全读不懂,所以还是不提供。再说就算我提供了,根据1)和2),看到你想看的内容也是需要运气的。&/p&&p&另外特别感谢赞赏的知友们,这篇文章是想说&b&书中自有颜如玉&/b&,而知友们的赞赏让我知道&b&书中真有黄金屋&/b&,古人诚不我欺…&/p&
作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章。这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能: 1) 去除(爱情)动作片中的马赛克2) 给(爱情)动作片中的女孩穿(tuo)衣服 生成式模型上一篇《》中已经简单介…
&p&成人动画领域的全才,人设、导演、演出、分镜等主要职位全部都能干,常常一手包办:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-eeaced34c9c9eaf8f8bbced7e7bce797_b.jpg& data-rawwidth=&501& data-rawheight=&115& class=&origin_image zh-lightbox-thumb& width=&501& data-original=&https://pic1.zhimg.com/50/v2-eeaced34c9c9eaf8f8bbced7e7bce797_r.jpg&&&/figure&&br&&figure&&img src=&https://pic1.zhimg.com/50/v2-dccfbc7c8da88_b.jpg& data-rawwidth=&386& data-rawheight=&249& class=&content_image& width=&386&&&/figure&&br&&figure&&img src=&https://pic4.zhimg.com/50/v2-5f77cce2684aaaf8bd72d_b.jpg& data-rawwidth=&400& data-rawheight=&384& class=&content_image& width=&400&&&/figure&&br&&br&&p&&b&监督风格:&/b&&/p&&p&西川贵史是一位非常非常有想法的监督, 喜欢在导演的动画中加入一些非常有意思的小细节 ,增加趣味性,虽然在成人动画里几乎完全是没有必要的举动,但是无疑能增加在观众心中的存在感以及好感度&/p&&p&恋骑士开篇致敬凡尔赛玫瑰OP:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-383efedbfba0dd8167ac19e_b.jpg& data-rawwidth=&1114& data-rawheight=&585& class=&origin_image zh-lightbox-thumb& width=&1114& data-original=&https://pic1.zhimg.com/50/v2-383efedbfba0dd8167ac19e_r.jpg&&&/figure&&br&&figure&&img src=&https://pic4.zhimg.com/50/v2-3be733c038f2ef24d444b5_b.jpg& data-rawwidth=&751& data-rawheight=&567& class=&origin_image zh-lightbox-thumb& width=&751& data-original=&https://pic4.zhimg.com/50/v2-3be733c038f2ef24d444b5_r.jpg&&&/figure&&p&恋骑士总致敬巨匠出崎统标志性的静态画面:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-defb65fb03ead_b.jpg& data-rawwidth=&1119& data-rawheight=&589& class=&origin_image zh-lightbox-thumb& width=&1119& data-original=&https://pic4.zhimg.com/50/v2-defb65fb03ead_r.jpg&&&/figure&&br&&figure&&img src=&https://pic1.zhimg.com/50/v2-ba71e9fd78bd590fba457_b.jpg& data-rawwidth=&600& data-rawheight=&327& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic1.zhimg.com/50/v2-ba71e9fd78bd590fba457_r.jpg&&&/figure&&br&&p&聖ヤリマン学園援交日記ED画面满满80年代风味的点阵图:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-8f9cef46dbff437d03c8_b.jpg& data-rawwidth=&1121& data-rawheight=&556& class=&origin_image zh-lightbox-thumb& width=&1121& data-original=&https://pic3.zhimg.com/50/v2-8f9cef46dbff437d03c8_r.jpg&&&/figure&&br&&p&只担任过一部全年龄动画 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/86804& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&STRANGE+&/a& 的监督,这之后又回到粉菠萝拍黄片去了..&/p&&p&其实这个神经病话唠泡面片挺能让西川发挥自己的风格...二期换监督太可惜了。&/p&&p&一迅社名家绘制的EDcard排面非常大&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-2e9b13f66cf9bd16c61b09f_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-2e9b13f66cf9bd16c61b09f_r.jpg&&&/figure&&br&&figure&&img src=&https://pic3.zhimg.com/50/v2-cd8ebf36fa9cf2fa88374e_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/50/v2-cd8ebf36fa9cf2fa88374e_r.jpg&&&/figure&&br&&figure&&img src=&https://pic4.zhimg.com/50/v2-2a5c5d2b75d2732eced6_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/50/v2-2a5c5d2b75d2732eced6_r.jpg&&&/figure&&br&&figure&&img src=&https://pic4.zhimg.com/50/v2-c9ee24ca6e128c3fa750d_b.jpg& data-rawwidth=&580& data-rawheight=&326& class=&origin_image zh-lightbox-thumb& width=&580& data-original=&https://pic4.zhimg.com/50/v2-c9ee24ca6e128c3fa750d_r.jpg&&&/figure&&br&&p&&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/210268& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&漆黒のシャガ &/a& 这部原创作品让我不得不佩服西川贵史的勇气和其对成人动画领域的热爱,上一个这么做的 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/63380& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&緋忍伝 -呀宇種&/a& 已经是多年前的事情,其惨败的结果成为了压死ARMS退出成人动画领域最后的稻草, 这里也只能祝愿西川在这部作品上不要失手吧。&/p&&p&&b&人设&作监风格:&/b&&/p&&p&在保证高还原度人设的基础上强调着自己的特色,人物皮肤上的红晕和角色的大门牙是其最大的两个标识,除此之外强调着人物肢体肉感刻画。&/p&&p&体位多变动作丰富使得西川片在细节方面带来了很多小崩坏,但即便如此,脸这块地方绝对是西川贵史名字的保证。&/p&&br&&figure&&img src=&https://pic4.zhimg.com/50/v2-41e5d30e9ec2d4670fd54_b.jpg& data-rawwidth=&427& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&427& data-original=&https://pic4.zhimg.com/50/v2-41e5d30e9ec2d4670fd54_r.jpg&&&/figure&&br&&figure&&img src=&https://pic1.zhimg.com/50/v2-c4a18befc29b516c129f1f_b.jpg& data-rawwidth=&500& data-rawheight=&700& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic1.zhimg.com/50/v2-c4a18befc29b516c129f1f_r.jpg&&&/figure&&br&&p&&b&分镜风格:&/b&&/p&&p&西川贵史喜欢在人物做爱时设计如同花式体操一般的超级夸张动作,虽然能理解这是在低成本限制下为了突出动感的无奈之举,却带给了许多观众强烈的不适成为了西川被诟病最多的地方。&/p&
成人动画领域的全才,人设、导演、演出、分镜等主要职位全部都能干,常常一手包办: 监督风格:西川贵史是一位非常非常有想法的监督, 喜欢在导演的动画中加入一些非常有意思的小细节 ,增加趣味性,虽然在成人动画里几乎完全是没有必要的举动,但是无疑能…
&figure&&img src=&https://pic2.zhimg.com/v2-eb5b1cf84f592b0cc72e1_b.jpg& data-rawwidth=&500& data-rawheight=&500& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic2.zhimg.com/v2-eb5b1cf84f592b0cc72e1_r.jpg&&&/figure&&p&两方面都不是很多,一起写了。&/p&&p&书:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-37ebb12759eeb2fa79a70b5b1c2fcd71_b.jpg& data-rawwidth=&902& data-rawheight=&482& class=&origin_image zh-lightbox-thumb& width=&902& data-original=&https://pic1.zhimg.com/v2-37ebb12759eeb2fa79a70b5b1c2fcd71_r.jpg&&&/figure&&p&第一本:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-d931aca52bfd56e90b66_b.jpg& data-rawwidth=&361& data-rawheight=&512& class=&content_image& width=&361&&&/figure&&br&&p&现今美少女游戏界最好的画师之一&a href=&https://link.zhihu.com/?target=http%3A//surugaya.masadora.jp/search%3Fcategory%3D%26search_word%3D%26restrict%255B%255D%3Dperson_id%28int%29%3D295156& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ピロ水&/a& 的同人彩图总集,全是彩图,最后几P还展示了他个人的上色步骤:&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-de0abfbaa884acfba45da9a_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic3.zhimg.com/v2-de0abfbaa884acfba45da9a_r.jpg&&&/figure&各位,我恋爱了。&figure&&img src=&https://pic1.zhimg.com/v2-d512ed776bdd163a56b71cac_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic1.zhimg.com/v2-d512ed776bdd163a56b71cac_r.jpg&&&/figure&&br&&p&第二本:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-3f44d29e3f40eccaebdd_b.jpg& class=&content_image&&&/figure&&p&知名动画人吉成钢的人物设定集,包括了从1996年至2011年间他各种奇怪作品的人设集,各种意义上都有极高的收藏价值,因此价格也不便宜:&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7d90f5a64f4e711dee70c1ccac4a21fd_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic4.zhimg.com/v2-7d90f5a64f4e711dee70c1ccac4a21fd_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-ace94f7f381a260bae791dd9b36168c6_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic3.zhimg.com/v2-ace94f7f381a260bae791dd9b36168c6_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-7956afac09aa6dff998225f_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic2.zhimg.com/v2-7956afac09aa6dff998225f_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-c8e4f3e8d003cd5ef96562_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic2.zhimg.com/v2-c8e4f3e8d003cd5ef96562_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-6293febbf96e1c47fc367b765f8b6c57_b.jpg& data-rawwidth=&963& data-rawheight=&1600& class=&origin_image zh-lightbox-thumb& width=&963& data-original=&https://pic1.zhimg.com/v2-6293febbf96e1c47fc367b765f8b6c57_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-4c3dae79b62b_b.jpg& data-rawwidth=&578& data-rawheight=&960& class=&origin_image zh-lightbox-thumb& width=&578& data-original=&https://pic2.zhimg.com/v2-4c3dae79b62b_r.jpg&&&/figure&&br&&figure&&img src=&https://pic3.zhimg.com/v2-bbfeb6e4ef925b32fdd6a4_b.jpg& data-rawwidth=&963& data-rawheight=&1600& class=&origin_image zh-lightbox-thumb& width=&963& data-original=&https://pic3.zhimg.com/v2-bbfeb6e4ef925b32fdd6a4_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-0d2ca7bdd6ba9df9efa9f98f7c05e81d_b.jpg& data-rawwidth=&963& data-rawheight=&1600& class=&origin_image zh-lightbox-thumb& width=&963& data-original=&https://pic3.zhimg.com/v2-0d2ca7bdd6ba9df9efa9f98f7c05e81d_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-bba0f682f504fdb1b9f3db_b.jpg& data-rawwidth=&349& data-rawheight=&390& class=&content_image& width=&349&&&/figure&&br&&p&吉成钢画人实在是太厉害了...在90年代能有这样的理解让我叹为观止&br&&/p&&p&第三本:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-4c6cd0fcec57000ceb30013_b.jpg& data-rawwidth=&362& data-rawheight=&512& class=&content_image& width=&362&&&/figure&&a href=&https://link.zhihu.com/?target=http%3A//surugaya.masadora.jp/search%3Fcategory%3D%26search_word%3D%26restrict%255B%255D%3Dperson_id%28int%29%3D2987107& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&kappe&/a& C90的作画本,主要是偶像大师,似乎是个新人。&br&&/p&&p&第四本:&/p&&p&&a href=&https://link.zhihu.com/?target=http%3A//surugaya.masadora.jp/search%3Fcategory%3D%26search_word%3D%26restrict%255B%255D%3Dperson_id%28int%29%3D1067221& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&saitom&/a& C91的小册子&br&&/p&&p&&figure&&img src=&https://pic3.zhimg.com/v2-dc8f34f9ce4d2a0c34f2486b_b.jpg& data-rawwidth=&359& data-rawheight=&512& class=&content_image& width=&359&&&/figure&内容包括Fate、DEAD OR ALIVE、艦隊これくしょん、朧村正,又小又薄的一本,不过这本是全年龄的&/p&&p&EXTRA:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-5fea19f0bf887a58a148696_b.jpg& data-rawwidth=&872& data-rawheight=&322& class=&origin_image zh-lightbox-thumb& width=&872& data-original=&https://pic1.zhimg.com/v2-5fea19f0bf887a58a148696_r.jpg&&&/figure&今天开始当LL人...&/p&&br&&p&动画方面:&/p&&p&因为有角落和声之形两部剧场版,所以老片子没怎么看&/p&&a href=&https://link.zhihu.com/?target=http%3A//bangumi.tv/subject/7993& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&炼金三级魔法少女&/a&&p&&figure&&img src=&https://pic4.zhimg.com/v2-4845138fdcd5d6b00ac013_b.jpg& data-rawwidth=&448& data-rawheight=&672& class=&origin_image zh-lightbox-thumb& width=&448& data-original=&https://pic4.zhimg.com/v2-4845138fdcd5d6b00ac013_r.jpg&&&/figure&硬要分类应该是“萌豚片”吧..还是人外娘萌豚片(吸血鬼,兽人,机械人,魔女),没什么主线故事,轻松愉快的小片子&br&&/p&&br&&p&不世出的萌豚片,这个名气实在是对不起片子的质量。虽然是06年的动画,但是片源意外的不错,平田雄三负责的人设也不怎么过时,因此这部片子观看体验很好。&/p&&p&ED极其出彩,即使不看动画本体,这个动画的系列ED我也是要强烈推荐的,不愧是&a href=&https://link.zhihu.com/?target=http%3A//bangumi.tv/person/51& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&井出安軌&/a& 的ED啊,太棒了。&/p&&br&还有个彩蛋,可以看到平野绫和生天目仁美两代WA女主在唱功上的直接对决(笑)&br&&h3&&a href=&https://link.zhihu.com/?target=http%3A//bangumi.tv/subject/33299& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&女神转生&/a& &/h3&&br&&p&&figure&&img src=&https://pic2.zhimg.com/v2-7f2ef080bc75f29c139aac_b.jpg& data-rawwidth=&207& data-rawheight=&384& class=&content_image& width=&207&&&/figure&女神转生是ALTUS经久不衰的名作系列(虽然现在已经被女神异闻录系列占了大头),这部是87年发售的女神转生游戏的宣传动画,故事方面不能要求太多&/p&&br&&p&监督是龙之子四天王之一的西久保瑞穗,因为人设是北爪宏幸,所以我总是感觉在看高达ZZ..&/p&&p&制作很不错,部分场景的刻画非常猎奇,在光影的描绘上有种新房昭之早期(90年代)的躁动不安感&br&&/p&&br&&h1&&a href=&https://link.zhihu.com/?target=http%3A//bangumi.tv/subject/46952& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&AD.POLICE&/a& &/h1&&p&&figure&&img src=&https://pic4.zhimg.com/v2-38d468bc361ba32d290eadcc587a0c3d_b.jpg& data-rawwidth=&332& data-rawheight=&475& class=&content_image& width=&332&&&/figure&泡泡糖危机的外传,有点类似机动警察世界观的OVA作品,男主角女主角声优和机动警察一模一样&/p&&p&因为是AIC的OVA,又是犯罪题材的作品,尺度不小,部分场景非常香艳..制作方面也不用担心&/p&&p&故事挺无聊的...调动不了观看的情绪啊&/p&
两方面都不是很多,一起写了。书:第一本: 现今美少女游戏界最好的画师之一 的同人彩图总集,全是彩图,最后几P还展示了他个人的上色步骤: 各位,我恋爱了。 第二本:知名动画人吉成钢的人物设定集,包括了从1996年至2011年间他各种奇怪作…
&p&美少女游戏诞生于80年代后半,因此美少女游戏改编动画的历史再早也得从这个时期后萌芽。最早的美少女游戏改编动画是哪部暂不可考,在我有印象的动画里,再也找不到比这部脱衣麻雀游戏原作的更早的:&/p&&p&スーパーリアル麻雀——一个90年代在日本非常有人气的脱衣麻雀系列&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-2e3ead0953abb98cf0256d_b.jpg& data-rawwidth=&785& data-rawheight=&562& class=&origin_image zh-lightbox-thumb& width=&785& data-original=&https://pic4.zhimg.com/50/v2-2e3ead0953abb98cf0256d_r.jpg&&&/figure&&p&OVA时代本来就是个钱多着没处花所以不如做动画的时代,对于现在的观众而言,要更熟悉点的应该是这两部, 90年代&b&“东ELF,西ALICE”&/b&这样的说法理所应当的也体现在了动画上面:&/p&&p&91年的 OVA『 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/109750& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ドラゴンナイト&/a&(龙骑士)』(原作ELF)&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-7ac20666afd_b.jpg& data-rawwidth=&323& data-rawheight=&450& class=&content_image& width=&323&&&/figure&&br&&p&93年的OVA『 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/63051& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Rance?砂漠のガーディアン?&/a&』(原作ALICESOFT)&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-c364cec06b2d174fe629ecc_b.jpg& data-rawwidth=&400& data-rawheight=&400& class=&content_image& width=&400&&&/figure&&p&早年的美少女游戏改编动画尺度比较模糊,所以即使有了比较明显的Sex画面,但是只要不过激,依旧可以分配到“R-15”的范畴,不过后来日本也明白了这样取巧带来的问题,相当一部分在后来重新划分到“R-18”。&/p&&br&&p&因为同级生2和全年龄游戏领域的名作心跳回忆的对于恋爱游戏的影响,95年是日本恋爱游戏井喷的一年,之所以提95年,是因为当年还有一个重要的一个事件就是Windows95系统的横空出世,WIN95的出现极大的改变了这类游戏的现状,拓展了游戏的受众。&/p&&p&——强调游戏风向的改变,是因为恋爱游戏的蓬勃发展,美少女游戏不是以调教/悬疑推理/馆探索等成人向要素浓厚的题材为主,恋爱要素和角色的萌元素渐渐变成作品的重点,这类作品再也不是那么难以见人的东西。&/p&&p&&b&游戏爱好者的角色与动画爱好者的角色开始重合。&/b&&/p&&p&当时R-15&R-18的OVA动画市场正处于泡沫期,美少女游戏改编动画业界也随着上述所说的游戏类型风向的变化有了点微妙的转变。&/p&&p&同级生2的动画制作方采用了不掺杂任何性描写而将重心放在剧本叙事上的新尝试,在此方针下同级生2系列OVA中破天荒的把其中几章都制作成了一般年龄版,不仅如此,在这之后的1998年,同级生2的1~9章经过剪辑后还在电视上放映了。 &/p&&p&在同级生2作为同级生系列的正统续作,同级生2在动画上的尝试是成功的,但是作为纯爱题材领头羊的同级生2本来还能更成功一些,碍于时代的限制并没有采取更大胆的做法。&/p&&p&98年,主机平台上的名作《青涩宝贝》( &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/33118& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&センチメンタルジャーニー&/a&)已经先行一步推出了由知名监督片山一良监督、知名公司sunrise制作的TV动画:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-ec78a752a002a41ba0fb0e97dd49eafc_b.jpg& data-rawwidth=&406& data-rawheight=&568& class=&content_image& width=&406&&&/figure&&p&OVA动画到底还是有很大的局限性,TV动画无论是在宣传上还是受众上都是有着得天独厚的优势的,青涩宝贝的动画不仅仅在对原作的宣传上取得了很好的成效,动画本身的销量也达到了非常可观的5500卷均。&/p&&br&&br&&p&各方面都显示着美少女游戏TV化势在必行,而取得 &b&首部十八禁游戏TV动画化改编作品 &/b&这项殊荣的作品,名叫&b&To heart。&/b&&/p&&blockquote&&b&TIPS: &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/854& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&影山楙倫&/a&&/b&
和金泽胜眞并列的erogame改编OVA动画下最常见的监督之一,主要活动范围是动画公司ARMS,和金泽胜眞不同的是,他会接手全年龄改编。
比如 Tactics的ONE,F&C的 With You ~みつめていたい~、F&C的Pia?キャロットへようこそ!!2 DX,ELF的下级生2&/blockquote&&br&&figure&&img src=&https://pic1.zhimg.com/50/v2-32cdb4795f44aedf78b5fd3ad5f2884b_b.jpg& data-rawwidth=&1421& data-rawheight=&1419& class=&origin_image zh-lightbox-thumb& width=&1421& data-original=&https://pic1.zhimg.com/50/v2-32cdb4795f44aedf78b5fd3ad5f2884b_r.jpg&&&/figure&&p&原作其实已经很有名很大影响很多人歌功颂德了,所以我这里要特别提一下动画,作为十八禁游戏改编TV动画的开山之作,&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/8296& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&To Heart&/a&的动画各种意义上都是很厉害的作品,尤其是在叙事风格上,难得到至今近20年里再也没有作品能复制。&/p&&p&本片的监督&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/161& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&高橋ナオヒト&/a& 是一位能将角色的感情克制到内敛,用极简的手法去体现角色活动的厉害人物。观看To heart的过程中有着相当特别的体验,甚至不像是一部现在大众认知上的“美少女游戏改编动画”,配合OLM在赛璐璐时代末期无懈可击的制作,交出了一份关于青涩恋情的满分答卷。&/p&&p&也因为To heart的成功,这之后的很多走纯爱路线的美少女游戏即使没有做TV动画的资本,也会选择发布多发布一个全年龄的OVA动画版本:&/p&&p&比如ELF自家的 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/100660& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&下級生&/a& 与F&C的&a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/69425& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Pia?キャロットへようこそ!&/a&2招牌作品都是纯爱原作改编OVA动画后走15禁/全年龄多版本的路子,00年的时候ELF甚至为旗下的异色作品 &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/subject/82530& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&リフレインブルー&/a& 制作了两话全年龄OVA:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-adbb153c85acd_b.jpg& data-rawwidth=&400& data-rawheight=&564& class=&content_image& width=&400&&&/figure&&br&&p&而同时期的成人动画领域已经成了各类拔向十八禁作品改编动画的天地,完全成了满足工口需求的动画载体,并再也没有任何改变。虽然在这10年里也偶然会诞生空之色水之色、公主恋人O、黑兽这样的高水准改编,&/p&&blockquote&&b&TIPS: &a href=&//link.zhihu.com/?target=http%3A//bangumi.tv/person/2066& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&金澤勝眞&/a&&/b&
将一生都献给十八禁动画的动画监督,履历上绝大部分都是十八禁游戏改编作品,以精品率高、想法独特著称。
逝世于09年。&/blockquote&&br&&p&美少女游戏改编动画是个很尴尬的类型,一方面ADV游戏本来就是因为便宜才流行的,虽然TV能面向更广大的受众,但是最少一季度的集数要求对动画制作总成本的需求也是直接提高了不少,这对于“广告片”的身份坐实的本类型片来说,另一方面作为纯男性向的原作,目的性过强,为了满足原作粉丝的需求很可能就把动画做成粉丝向的作品把路人观众拒之门外。&/p&&p&但是一部作品的出现几乎改变了TV动画观众对于美少女游戏改编TV动画的认识,它一举拿下了当年TV动画的销量冠军,夺取了无数观众的泪水并吸引了不计其数的新受众去接触美少女游戏这个领域,至今荫蔽着同类型动画的风评,这部TV作品叫『AIR』。&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-19d013c0e69cb1a68999f_b.jpg& data-rawwidth=&500& data-rawheight=&375& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic4.zhimg.com/50/v2-19d013c0e69cb1a68999f_r.jpg&&&/figure&&p&于质量于影响,AIR作为TV动画无疑是一部称得上&b&“伟大”&/b&的作品,感谢于京都动画远超同期TV动画水平的制作,几乎是改变了某一些本来已经根深蒂固的看法。&/p&&p&(虽然出崎统拍摄的剧场版也有自身的亮点,但是说到底大部分动画观众都是外貌协会的...)&/p&&p&AIR动画播出后在商业上取得的极大成功,不仅给予了visual art‘s社极大的自信去将key旗下的另外两部作品《KANON》《CLANNAD》交给京都动画TV化。对于当时业界来说是个

我要回帖

更多关于 母系里番名字 的文章

 

随机推荐