我正在尝试使用
cocoa从网络摄像头抓取图像.我可以使用QTKit和didOutputVideoFrame委托调用获取RGBA格式的图像,并将CV
ImageBuffer转换为CIImage然后转换为NSBitmapImageRep.
我知道我的相机在YUV中本地抓取,我想要的是直接从CVImageBuffer获取YUV数据,并在显示之前处理YUV帧.
我的问题是:如何从CVImageBuffer获取YUV数据?
谢谢.
解决方法
您可以使用[CIImage imageWithCVBuffer:]从缓冲区创建CIImage,然后将该CIImage渲染为所需像素格式的CGBitmapContext.
注意,我还没有测试过这个解决方案.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 [email protected] 举报,一经查实,本站将立刻删除。