文 | 银行螺丝钉 (转载请获本人授权,并注明作者与出处)
关注公众号:定投十年赚十倍
同名微博:@银行螺丝钉
我们投资指数基金,这个规模越大越好么?
其实在挑选基金的时候,规模确实也会是一个考虑的方面。
首先,我们不会考虑规模太小的基金。
比如说规模只有几百万的基金,因为这样的基金清盘风险比较大。
基金清盘,也不是说投资者血本无归,而是会按照基金某一天的净值进行赎回,把资金还给投资者。
但毕竟清盘流程比较麻烦。
所以通常我们会要求投资的指数基金规模大于一两亿。
除了清盘风险的考虑,基金的规模稍大一些,也有一些收益上的好处。
基金有一些比较固定的费用,比如说以前基金需要支付给一些指定报刊一定的信息披露费,这种费用是固定的费用。
对大规模基金来说,这些费用影响不大。但基金规模比较小的时候,这些费用的影响就会比较大了。
最近也有一个新规定开始施行:指数基金可以参与转融通业务。
简单理解,相当于指数基金把手里长期持有的股票出租,赚取一点租金。出租出去的股票是会完好无损的回来的。
这部分也会增厚投资者的收益。
指数基金就是主要的受益品种,这可以增厚指数基金每年大约0.5-1%左右的收益。
这个业务在美股比较成熟了,A股刚开始实施。但A股的基金如果想要参与这个业务,需要规模在2亿以上才可以。
省费用、多赚点「租金」。
这对指数基金来说,规模大点还是有好处的。
所以大家看螺丝钉组合,很少投资规模在几千万左右的基金品种,组合主要投资的基金规模通常在几亿到十几亿以上,也正是由于有这方面的考虑。
但规模太大,也不一定是好事。
很多指数基金,实际上能容纳的资金量是有限的。像部分策略指数基金,刚出来的时候超额收益还不错,后来因为买的人太多,超额收益逐渐下滑了。
比如说美股市场,早期红利指数基金的表现还是比较出色的。但最近十几年,美股红利指数基金的规模越来越大,单只红利指数基金的规模甚至达到了几百亿美元。
例如先锋领航旗下的VIG,这就是一个高股息率策略的红利指数基金,目前规模是314亿美元,大约是2000亿人民币的规模。VIG还只是其中一只。
像其他的DVY、VYM等也是美股规模比较大的红利指数基金,也都在数百亿美元的规模。
对红利指数基金来说,通常股息率越高的时候,投资价值也会越高。但一个高股息率的股票,如果买的人多了,它的价格会上涨。
股息率=现金分红/市值,市值上涨,股息率也就没那么高了,之后的投资收益反而会被摊低。
买的越便宜,收益才会越好,跟我们抢着买的人多了,自然很难买的便宜。
到了最近一轮牛熊市,红利类指数在美股的超额收益就比90年代要低了一些。
当然,A股目前还远没有到这一步。
目前A股指数基金还处于起步阶段,大部分投资者不知道指数基金是什么,更不用说红利、价值等指数基金了。
做一个对比,A股目前规模最大的红利类指数基金,规模大约是40亿左右,相当于美股红利指数基金规模的2%。大概率需要发展许多轮牛熊市,才有可能比得上目前美股红利指数基金的规模。
现阶段A股的很多指数基金,还是可以获得超额收益、长期跑赢市场的。
对我们已经掌握了指数基金投资技巧的人来说,就是市场的先行者。
作者:银行螺丝钉(转载请获本人授权,并注明作者与出处)
还在为图像加载犯愁吗?
最新的好消息是,谷歌团队采用了一种GANs与基于神经网络的压缩算法相结合的图像压缩方式HiFiC,在码率高度压缩的情况下,仍能对图像高保真还原。
GAN(Generative Adversarial Networks,生成式对抗网络)顾名思义,系统让两个神经网络相互「磨炼」,一个神经网络负责生成接近真实的数据,另一个神经网络负责区分真实数据与生成的数据。
简单来说,就是一个神经网络「造假」,另一个神经网络「打假」,而当系统达到平衡时,生成的数据看起来便会非常接近真实数据,达到「以假乱真」的效果。
下面是这种算法展现出来的图像与JPG格式图像的对比。
可见,在图像大小接近的情况下(HiFiC大小74kB,JPG图像大小78kB),算法所展现出来的图像压缩效果要好得多。
而在与原图进行对比时,HiFiC所展现出来的还原效果仍然非常优秀。(真的不是在原图中间画了条线吗?)
目前处于特殊时期,大量国外网友仍在家中隔离,Netflix和油管的播放量暴增,一些视频网站甚至不得不被迫降低视频在线播放的清晰度,以适应激增的数据量。
但看惯了高清视频的网友们,面对突如其来的「模糊打击」自然怨声载道。
用一位网友的话来说,如果视频行业也能被应用类似的技术,相信Netflix和油管会特别高兴,毕竟这种高清低码率的图像复原实在太诱惑。
哇,如果他们可以对视频做同样的事情的话,我相信Netflix和YouTube会很高兴的。
事实上,在了解HiFiC算法的原理后,会发现它的确不难实现。
接近原图的图像重构算法
此前,相关研究已有采用神经网络进行图像压缩的算法,而随着近年来生成式对抗网络兴起,采用GANs生成以假乱真图像的算法也不在少数。
如果能有办法将二者结合,图像压缩的效果是不是会更好、更接近于人类的感知?
这次图像压缩的模型便是基于二者的特性设计,在基于神经网络的压缩图像算法基础上,采用GANs进一步让生成的图片更接近于人类视觉,在图像大小和视觉感知间达到一个平衡。
可以看见,HiFiC的架构被分成了4个主要部分,其中E为编码器,G为生成器,D为判别器,而P则是E的输出E(x)的概率模型(这里用y表示),也就是P用于模拟y的概率分布。
GANs运作的核心思想在于,需要让架构中的生成器G通过某种方法,「欺骗」判别器D判定样本为真。
而概率模型P,则是达成这步操作的条件。
然后,将E、G、P参数化为卷积神经网络,这样就可以通过率失真优化的条件,对这些网络进行共同训练。
同时,研究者也对已有的几种GANs算法架构进行了微调,使其更适于HiFiC架构。
研究发现,将GANs与深度学习相结合的HiFiC算法取得了意想不到的效果。
下图是采用目前几种主流图像质量评估标准,对几种前沿的图像压缩算法与HiFiC算法进行比较的结果。
在图中,评估标准后面自带的箭头,表示数据更低(↓)或数据更高(↑)表示图像质量更好。
为了更好地对比,结果分别采用了HiFiC算法(图中红点连线)、不带GANs的对比算法(图中橙方连线)、目前较为前沿的M&S算法(图中蓝方连线)和BPG算法(图中蓝点连线)。
从结果来看,HiFiC算法在FID、KID、NIQE、LPIPS几种评估标准均为最优,而在MS-SSIM和PSNR标准中表现一般。
由评估标准间的差异可见,各项图像质量标准不一定是判断压缩技术的最好办法。
毕竟,图像是用来看的,最终的判断权还得交回用户手里。
图像究竟是否「清晰」,某种程度上得通过人眼的判断来决定。
出于这个考虑,团队采取了调研模式,让一部分志愿者参与算法的比较。
他们先展示一张测试图片的随机裁切图样,当志愿者对其中某张裁切图样感兴趣时,便用这一部分来进行所有算法的对比。
志愿者将原图与经过算法处理后的图像对比后,选出他们认为「视觉上」更接近于原图的压缩算法。
在所有算法经过选取后,将会出现一个排名,以衡量HiFiC的实际效果。(其中,HiFiC的角标Hi、Mi和Lo分别为设置由高至低3种不同码率阈值时的算法)
上图中,评分越低,则代表图像在用户眼中「越清晰」。从图中来看,HiFiC(Mi)在0.237bpp的压缩效果下,甚至比两倍码率的0.504bpp的BPG算法在用户眼里还要更好。
这项研究再次推动了图像压缩技术的发展,正如网友所说,随着图像压缩技术的发展,在线看4k电影也许真能实现。
Fabian Mentzer,目前在瑞士苏黎世理工学院进行计算机视觉研究,感兴趣的研究方向有深度学习、图像压缩、前馈神经网络、图像分类等。
这篇论文的主要工作由Fabian Mentzer在谷歌研习期间完成,其余三位作者均来自谷歌团队。
海量资讯、精准解读,尽在新浪财经APP
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。