我的应用程序在物理iOS设备上运行完美,但是当我在模拟器中运行它时,几个图像无法正确呈现。一些图像按预期渲染,但其他图像的黑色区域覆盖了大部分图像。知道是什么导致了这个吗?
这些是我的方法:
UIImage检索:
(ShopItem.swift
):
self.image: UIImage? = UIImage(named: imageName)
UITableViewCell outlet:
(ShopItemTableViewCell.swift
):
@IBOutlet weak var itemImageView: UIImageView!
UITableViewCell中的图片分配:
(ShopViewController.swift
):
cell.itemImageView.image = shopItem.itemImage
注意: 我已经尝试过的每个模拟设备版本都重现了这个问题,而且我已经无法为我尝试过的每个物理设备重现
答案 0 :(得分:0)
原始帖子中的破碎图像的分辨率远高于正确渲染的分辨率。看起来覆盖图像的黑色量与图像尺寸成比例增加。以下是原始图像的大小:
豆豆:1440 x 960
鸡蛋:2400 x 1936
牛奶:534 x 431
将这些尺寸缩小到<1000像素可解决问题。