5篇关于AI / ML的热门研究论文

惊人的论文……

篇关于AI

> Pic credits : Pinterest

Qlib:面向AI的量化投资平台

作者:杨晓,刘卫清,周冬,姜边,刘铁岩

摘要—

量化投资旨在在一系列金融工具上的连续交易期间内,最大化回报,并最大程度地降低风险。最近,受AI技术的飞速发展和巨大潜力的启发,该技术在定量投资方面产生了显着的创新,因此越来越多地采用AI驱动的工作流进行定量研究和实际投资。在丰富定量投资方法的同时,人工智能技术对定量投资系统提出了新的挑战。特别是,用于定量投资的新学习范例要求对基础设施进行升级,以适应更新后的工作流程;此外,人工智能技术的数据驱动特性确实表明对具有更强大性能的基础架构的需求。此外,应用人工智能技术解决财务场景中的不同任务也存在一些独特的挑战。为了应对这些挑战并弥合AI技术与量化投资之间的差距,我们设计和开发了Qlib,旨在实现潜力,增强研究能力并创造AI技术在量化投资中的价值。

论文可以在这里找到:

https://arxiv.org/pdf/2009.11189v1.pdf

代码可以在这里找到:

https://github.com/microsoft/qlib

自我注意生成对抗网络

作者:张涵,伊恩·古德费洛,迪米特里斯·梅塔克萨斯,奥古斯都·奥德纳

摘要—

自我注意生成对抗网络(SAGAN)允许对图像生成任务进行注意力驱动的远程依赖性建模。传统的卷积GAN生成高分辨率细节,仅作为低分辨率特征图中空间上局部点的函数。在SAGAN中,可以使用来自所有要素位置的提示来生成细节。此外,鉴别者可以检查图像的远处部分中的高度详细的特征是否彼此一致。此外,最近的工作表明,发电机调节会影响GAN性能。利用这种见解,我们将频谱归一化应用于GAN生成器,并发现这可以改善训练动态。拟议中的SAGAN取得了最先进的结果,在具有挑战性的ImageNet数据集上,将最佳已发布的Inception分数从36.8提高到52.52,并将Frechet Inception距离从27.62降低到18.65。注意层的可视化显示生成器利用了与对象形状相对应的邻域,而不是固定形状的局部区域。

论文可以在这里找到:

https://arxiv.org/pdf/1805.08318v2.pdf

代码可以在这里找到:

https://github.com/brain-research/self-attention-gan

AdaBelief优化程序:根据观察梯度中的信念调整步长

庄俊堂,汤米(Tommy Tang),丁一凡,Sekhar Tatikonda,尼莎·德沃涅克(Nicha Dvornek),色诺芬·帕帕德米特(Xenophon Papademetris),詹姆斯·邓肯(James S.Duncan)

摘要—

最受欢迎的深度学习优化器可大致分为自适应方法(例如Adam)和加速方案(例如具有动量的随机梯度下降(SGD))。对于许多模型,例如卷积神经网络(CNN),与SGD相比,自适应方法通常收敛速度更快,但泛化效果更差。对于诸如生成对抗网络(GAN)之类的复杂环境,自适应方法通常由于其稳定性而成为默认方法。我们提出AdaBelief同时实现三个目标:自适应方法中的快速收敛,SGD中的良好通用性以及训练稳定性。 AdaBelief的直觉是根据当前梯度方向上的"信念"调整步长大小。将噪声梯度的指数移动平均值(EMA)视为下一步的梯度预测,如果观察到的梯度大大偏离了预测,则我们不信任当前的观察结果,而是走了一小步。如果观测到的梯度接近于预测值,我们相信它并采取了较大的步骤。我们在广泛的实验中验证了AdaBelief,表明它在图像分类和语言建模方面具有快速收敛和高精度的性能,优于其他方法。具体来说,在ImageNet上,AdaBelief的准确性可与SGD相提并论。此外,在Cifar10上进行GAN训练时,与经过良好调整的Adam优化器相比,AdaBelief表现出高稳定性并提高了生成样本的质量。

论文可以在这里找到:

https://arxiv.org/pdf/2010.07468v4.pdf

代码可以在这里找到:

https://github.com/juntang-zhuang/Adabelief-Optimizer

全卷积网络的端到端目标检测

王建峰,林松,李泽明,孙宏斌,孙建,郑南宁

摘要—

基于全卷积网络的主流目标检测器取得了令人印象深刻的性能。尽管它们中的大多数仍需要手动设计的非最大抑制(NMS)后处理,这阻碍了全面的端到端培训。在本文中,我们对丢弃NMS进行了分析,结果表明适当的标签分配起着至关重要的作用。为此,对于全卷积检测器,我们引入了预测感知的一对一(POTO)标签分配进行分类,以实现端到端检测,并获得了与NMS相当的性能。此外,提出了一种简单的3D最大滤波(3DMF),以利用多尺度特征并提高局部区域卷积的可分辨性。借助这些技术,我们的端到端框架在COCO和CrowdHuman数据集上使用NMS可以与许多最先进的检测器相媲美。

论文可以在这里找到:

https://arxiv.org/pdf/2012.03544v1.pdf

代码可以在这里找到:

https://github.com/Megvii-BaseDetection/DeFCN

注意液体翘曲GAN:用于人类图像合成的统一框架

刘雯,朴志新,智途,罗文涵,马琳,高盛华

摘要—

我们在统一的框架内处理人的图像合成,包括人的动作模仿,外观转换和新颖的视图合成。这意味着该模型一旦经过训练,便可以用于处理所有这些任务。现有的特定于任务的方法主要使用2D关键点来估计人体结构。然而,它们仅表达位置信息,而无法表征人的个性化形状并模拟肢体旋转。在本文中,我们建议使用3D身体网格恢复模块来解开姿势和形状。它不仅可以模拟关节的位置和旋转,还可以表征个性化的身体形状。为了保留源信息,例如纹理,样式,颜色和脸部身份,我们提出了一种带有"注意液体翘曲块"(AttLWB)的"注意液体翘曲GAN",它将图像和特征空间中的源信息传播到合成参考。具体地,通过降噪卷积自动编码器提取源特征以很好地表征源身份。此外,我们提出的方法可以支持来自多个来源的更灵活的变形。为了进一步提高看不见的源图像的泛化能力,应用了一次/少量的对抗学习。详细地,它首先在广泛的训练集中训练模型。然后,它以自我监督的方式通过一张/几张未拍摄的图像微调模型,以生成高分辨率(512 x 512和1024 x 1024)的结果。此外,我们建立了一个新的数据集,即iPER数据集,用于评估人体运动模仿,外观转移和新颖的视图合成。大量的实验证明了我们方法在保持面部特征,形状一致性和衣服细节方面的有效性。

论文可以在这里找到:

https://arxiv.org/pdf/2011.09055v2.pdf

代码可以在这里找到:

https://github.com/iPERDance/iPERCore

(本文由闻数起舞翻译自Bloomberg的文章《5 Trending AI/ML Research Papers》,转载请注明出处,原文链接:

https://medium.com/datadriveninvestor/5-trending-ai-ml-research-papers-60f4b255f05d)

原创文章,作者:afeng135,如若转载,请注明出处:https://www.521dj.com/222556.html