我有一个应用程序,用户可以在其中与许多对象进行交互。这些是几个UIButtons
,几个UILabels
和很多UIImageViews
。
所有交互的焦点都围绕着触摸UIImageView
对象。只需轻轻一按,我就可以移动图像,告诉他们这样做或那样做。但是,我目前的障碍是知道如何正确地让应用程序区分我触摸UIButton
.
为什么?好吧,Touches Began 事件中的逻辑仅适用于UIImageViews
,但是当我触摸按钮或任何其他对象时,应用程序会将触摸解释为好像发生在UIImageView
对象上一样。
所以,我的方法归结为:有没有一种好的方法来识别是否对UIButton
, UIImageView
,UILabel
对象发生了触摸?这样我就可以从相关的触摸中过滤掉我的应用程序中不相关的触摸。
编辑:
下面的代码概述了我如何捕获触摸事件,但是我不知道如何从触摸事件中知道我触摸的是按钮还是视图。
touch = [touches anyObject];
touchLocation = [touch locationInView:[self view]];