Das Unternehmen Apple hat seine Sicherheitsrichtlinien für den App Store überarbeitet. Entwickler sind nun verpflichtet, ihre Anwendungen an ein neues System der Altersfreigaben anzupassen. Ziel ist es, den digitalen Schutz Minderjähriger zu stärken und Eltern wirksamere Kontrollmechanismen an die Hand zu geben. Die Änderungen sind Teil einer umfassenden Neugestaltung des inhaltlichen Bewertungssystems in iOS, iPadOS, macOS und anderen Apple-Plattformen, berichtet Compakt.DE. unter Berufung auf TechCrunch.
Was bedeuten die neuen Altersfreigaben im App Store?
Statt der bisherigen Kategorien 12+ und 17+ verwendet Apple nun eine detailliertere Skala: 4+, 9+, 13+, 16+ und 18+. So lassen sich Inhalte präziser an die Entwicklungsstufen von Kindern und Jugendlichen anpassen. Die Stufe 13+ umfasst leichte Inhalte für Teenager, 16+ steht für Anwendungen mit intensiver Interaktion oder In-App-Käufen, während 18+ ausschließlich für Erwachsene bestimmt ist und möglicherweise sensible Inhalte enthält. Entwickler müssen ihre Apps nicht nur nach Inhalt, sondern auch hinsichtlich Nutzerinteraktion, Werbung, Chat-Funktionen oder Teilen-Funktionen neu bewerten.
Auswirkungen auf Entwickler und bestehende Apps
Laut Apples offiziellen Entwicklerdokumenten wurden alle bestehenden Anwendungen automatisch den neuen Kategorien zugeordnet. Trotzdem empfiehlt das Unternehmen eine manuelle Überprüfung. Wer gegen die neuen Standards verstößt, riskiert die Entfernung aus dem App Store oder Sichtbarkeitseinschränkungen. Entwickler müssen künftig auch detaillierte Angaben zu Spielintensität, sensiblen Themen oder Kommunikationsmöglichkeiten machen. Die verpflichtenden Fragebögen treten mit dem offiziellen OS-Release im September 2025 in Kraft.
Elternkontrolle: Mehr Flexibilität für Nutzer
Die Anpassungen betreffen nicht nur Drittanbieter-Apps. Apple überarbeitet gleichzeitig die Familienfreigabe-Einstellungen innerhalb von iCloud. Eltern können Inhalte nun nicht nur basierend auf neuen Alterskategorien blockieren, sondern erhalten wöchentliche Berichte zur App-Nutzung ihrer Kinder. Zudem warnt eine neue KI-basierte Inhaltsanalyse automatisch vor potenziell riskanten Chats oder Spielelementen. Diese Funktion wird derzeit unter visionOS getestet und soll auf andere Systeme übertragen werden.
Globaler Kontext: Digitale Regulierung und Plattformhaftung
Vor dem Hintergrund strenger werdender Vorschriften zum Online-Jugendschutz – etwa durch KOSA in den USA oder DMA und DSA in der EU – erscheint Apples Schritt nicht isoliert. Vielmehr versucht das Unternehmen, regulatorischen Eingriffen zuvorzukommen, indem es proaktiv neue Standards setzt. Analysten erwarten, dass andere Plattformen wie Google Play dem Beispiel folgen und Apples Skala als neuen Branchenstandard übernehmen könnten. Dies dürfte die Regeln für Inhaltsmoderation in der App-Branche grundlegend verändern.
Wann werden die Änderungen im App Store wirksam?
Die Neuerungen sind bereits in den Beta-Versionen von iOS 26, iPadOS 26, macOS Tahoe 26, tvOS 26, watchOS 26 und visionOS 26 implementiert. Der vollständige Rollout ist für den Herbst 2025 nach Apples jährlichem Launch-Event geplant. Eltern sollten ihre Kontrollfunktionen prüfen, Entwickler die neuen Anforderungen analysieren, um Sichtbarkeit und Verfügbarkeit im App Store nicht zu verlieren. Früher berichteten wir: Harvard entwickelt ultradünnen Chip für Quantencomputer.