iOS 16’ya gelen yeni işlevler, uygulamaların gerçek dünyadaki eylemleri eller serbest olarak tetiklemesine olanak tanıyacak. Bu, kullanıcıların sadece bir odaya yürüyerek müzik çalmaya başlamak veya egzersiz yapmak için bir e-bisikleti sadece üzerine binerek başlatmak gibi şeyler yapabileceği anlamına gelir. Apple, bugün şirketin Dünya Çapında Geliştirici Konferansı (WWDC) sırasında düzenlenen bir oturumda geliştiricilere, bu eller serbest eylemlerin, iOS kullanıcısı o sırada uygulamayı aktif olarak kullanmasa bile tetiklenebileceğini söyledi.

kullanan güncelleme Apple’ın Yakın Etkileşim çerçevesigeliştiriciler ve aksesuar üreticileri teknolojiyi benimsemeyi seçerse, iPhone’un gerçek dünyadaki nesnelerle etkileşim kurmanın bir yolu haline geldiği bazı ilginç kullanım durumlarına yol açabilir.

Oturum sırasında Apple, günümüzde uygulamaların arka planda çalışırken bile Bluetooth LE aksesuarlarına nasıl bağlanabileceğini ve veri alışverişinde bulunabileceğini açıkladı. Ancak iOS 16’da uygulamalar, arka planda Ultra Geniş Bant’ı da destekleyen bir Bluetooth LE aksesuarıyla Yakınlarda Etkileşim oturumu başlatabilecek.

Bununla ilgili olarak Apple, aksesuar üreticilerinin bu yeni arka plan oturumlarını desteklemesi için spesifikasyonu güncelledi.

Bu, uygulamalar ve fiziksel dünya arasındaki çizginin bulanıklaştığı bir geleceğin önünü açıyor, ancak üçüncü taraf uygulama ve cihaz üreticilerinin bu işlevi kullanmayı seçip seçmediklerini henüz göreceğiz.

Yeni özellik, geliştirici oturumunun odak noktası olan Apple’ın Yakın Etkileşim çerçevesine yönelik daha kapsamlı bir güncellemenin parçası.

WWDC 2020’de iOS 14 ile tanıtılan bu çerçeve, üçüncü taraf uygulama geliştiricilerinin iPhone 11 ve sonraki cihazlarda, Apple Watch’ta ve diğer üçüncü taraf aksesuarlarda U1 veya Ultra Geniş Bant (UWB) yongasından yararlanmalarına olanak tanır. bugün olan bu güçler Apple’ın AirTag’i tarafından sunulan ve iPhone kullanıcılarının “Bul” uygulamasını açın AirTag’den ne kadar uzakta olduğunuzu veya AirTag’in farklı bir katta bulunup bulunmadığını bilmenizi sağlayan diğer kılavuzların yanı sıra ekrandaki yön okları kullanılarak AirTag’lerinin kesin konumuna yönlendirilmek için.

iOS 16 ile, üçüncü taraf geliştiriciler, Apple’ın artırılmış gerçeklik geliştirici araç seti olan ARKit’i Nearby Interaction çerçevesiyle entegre etmelerini sağlayacak yeni bir yetenek sayesinde, aynı şeyin çoğunu yapan uygulamalar oluşturabilecekler.

Bu, geliştiricilerin ARKit’ten hesaplandığı gibi cihazın yörüngesinden faydalanmalarını sağlayacak, böylece cihazları, uygulamanın işlevselliğine bağlı olarak bir kullanıcıyı yanlış yerleştirilmiş bir öğeye veya bir kullanıcının etkileşim kurmak isteyebileceği başka bir nesneye akıllıca yönlendirebilir. ARKit’ten yararlanan geliştiriciler, yalnızca Yakın Etkileşim’i kullanmalarına kıyasla daha tutarlı mesafe ve yön bilgileri elde edecek.

Bununla birlikte, işlevselliğin yalnızca üçüncü taraflarca üretilen AirTag benzeri aksesuarlar için kullanılması gerekmez. Apple, bir müzenin, örneğin sergileri boyunca ziyaretçilere rehberlik etmek için Ultra Geniş Bant aksesuarlarını kullanabileceği başka bir kullanım örneği sundu.

Ek olarak, bu özellik, kullanıcıları Ultra Geniş Bant nesnesine veya aksesuarına yönlendirmeye yardımcı olduğundan, kameranın gerçek dünya görüşünün üzerine yönlü okları veya diğer AR nesnelerini yerleştirmek için kullanılabilir. Demoya devam eden Apple, gidilecek yolu göstermek için kamera görüntüsünün üstündeki uygulamanın ekranında kırmızı AR baloncuklarının nasıl görünebileceğini kısaca gösterdi.

Daha uzun vadede, bu işlevsellik, Apple’ın muhtemelen AR destekli uygulamaların deneyimin özü olacağı söylentili karma gerçeklik akıllı gözlüklerinin temelini oluşturuyor.

Güncellenen işlevsellik, bu yıl içinde genel kullanıma sunulacak olan iOS 16 yazılım güncellemesinin beta test kullanıcılarına sunuluyor.

TechCrunch'ta WWDC 2022 hakkında daha fazla bilgi edinin



genel-24