HomeHome
 
  • Startseite
  • Patentrecherche

    Patentwissen

    Unsere Patentdatenbanken und Recherchetools

    Zur Übersicht 

    • Übersicht
    • Technische Information
      • Übersicht
      • Espacenet - Patentsuche
      • Europäischer Publikationsserver
      • EP-Volltextrecherche
    • Rechtliche Information
      • Übersicht
      • Europäisches Patentregister
      • Europäisches Patentblatt
      • European Case Law Identifier Sitemap
      • Einwendungen Dritter
    • Geschäftsinformationen
      • Übersicht
      • PATSTAT
      • IPscore
      • Technologieanalyseberichte
    • Daten
      • Übersicht
      • Technology Intelligence Platform
      • Linked open EP data
      • Massendatensätze
      • Web-Dienste
      • Datenbestände, Codes und Statistiken
    • Technologieplattformen
      • Übersicht
      • Kunststoffe im Wandel
      • Innovationen im Wassersektor
      • Innovationen im Weltraumsektor
      • Technologien zur Bekämpfung von Krebs
      • Technologien zur Brandbekämpfung
      • Saubere Energietechnologien
      • Kampf gegen Corona
    • Nützliche Informationsquellen
      • Übersicht
      • Zum ersten Mal hier? Was ist Patentinformation?
      • Patentinformation aus Asien
      • Patentinformationszentren (PATLIB)
      • Patent Translate
      • Patent Knowledge News
      • Wirtschaft und Statistik
      • Patentinformationen rund um den einheitlichen Patentschutz
    Bild
    Plastics in Transition

    Technologieanalysebericht zur Plastikabfallwirtschaft

  • Anmelden eines Patents

    Anmelden eines Patents

    Praktische Informationen über Anmelde- und Erteilungsverfahren.

    Zur Übersicht 

    • Übersicht
    • Europäischer Weg
      • Übersicht
      • Leitfaden zum europäischen Patent
      • Einsprüche
      • Mündliche Verhandlung
      • Beschwerden
      • Einheitspatent & Einheitliches Patentgericht
      • Nationale Validierung
      • Antrag auf Erstreckung/Validierung
    • Internationaler Weg (PCT)
      • Übersicht
      • Euro-PCT-Leitfaden: PCT-Verfahren im EPA
      • Beschlüsse und Mitteilungen des EPA
      • PCT-Bestimmungen und Informationsquellen
      • Erstreckungs-/Validierungsantrag
      • Programm für verstärkte Partnerschaft
      • Beschleunigung Ihrer PCT-Anmeldung
      • Patent Prosecution Highway (PPH)
      • Schulungen und Veranstaltungen
    • Nationale Anmeldungen
    • Zugelassenen Vertreter suchen
    • MyEPO Services
      • Übersicht
      • Unsere Dienste verstehen
      • Zugriff erhalten
      • Bei uns einreichen
      • Akten interaktiv bearbeiten
      • Verfügbarkeit der Online-Dienste
    • Formblätter
      • Übersicht
      • Prüfungsantrag
    • Gebühren
      • Übersicht
      • Europäische Gebühren (EPÜ)
      • Internationale Gebühren (PCT)
      • Einheitspatentgebühren (UP)
      • Gebührenzahlung und Rückerstattung
      • Warnung

    UP

    Erfahren Sie, wie das Einheitspatent Ihre IP-Strategie verbessern kann

  • Recht & Praxis

    Recht & Praxis

    Europäisches Patentrecht, Amtsblatt und andere Rechtstexte

    Zur Übersicht 

    • Übersicht
    • Rechtstexte
      • Übersicht
      • Europäisches Patentübereinkommen
      • Amtsblatt
      • Richtlinien
      • Erstreckungs-/ Validierungssyste
      • Londoner Übereinkommen
      • Nationales Recht zum EPÜ
      • Système du brevet unitaire
      • Nationale Maßnahmen zum Einheitspatent
    • Gerichtspraxis
      • Übersicht
      • Symposium europäischer Patentrichter
    • Nutzerbefragungen
      • Übersicht
      • Laufende Befragungen
      • Abgeschlossene Befragungen
    • Harmonisierung des materiellen Patentrechts
      • Übersicht
      • The Tegernsee process
      • Gruppe B+
    • Konvergenz der Verfahren
    • Optionen für zugelassene Vertreter
    Bild
    Law and practice scales 720x237

    Informieren Sie sich über die wichtigsten Aspekte ausgewählter BK-Entscheidungen in unseren monatlichen „Abstracts of decisions“

  • Neues & Veranstaltungen

    Neues & Veranstaltungen

    Aktuelle Neuigkeiten, Podcasts und Veranstaltungen.

    Zur Übersicht 

     

    • Übersicht
    • News
    • Veranstaltungen
    • Europäischer Erfinderpreis
      • Übersicht
      • Die bedeutung von morgen
      • Über den Preis
      • Kategorien und Preise
      • Lernen Sie die Finalisten kennen
      • Nominierungen
      • European Inventor Network
      • Preisverleihung 2024
    • Young Inventor Prize
      • Übersicht
      • Über den Preis
      • Nominierungen
      • Die jury
      • Die Welt, neu gedacht
    • Pressezentrum
      • Übersicht
      • Patent Index und Statistiken
      • Pressezentrum durchsuchen
      • Hintergrundinformation
      • Copyright
      • Pressekontakt
      • Rückruf Formular
      • Presseinfos per Mail
    • Innovation und Patente im Blickpunkt
      • Übersicht
      • Water-related technologies
      • CodeFest
      • Green tech in focus
      • Forschungseinrichtungen
      • Women inventors
      • Lifestyle
      • Raumfahrt und Satelliten
      • Zukunft der Medizin
      • Werkstoffkunde
      • Mobile Kommunikation: Das große Geschäft mit kleinen Geräten
      • Biotechnologiepatente
      • Patentklassifikation
      • Digitale Technologien
      • Die Zukunft der Fertigung
      • Books by EPO experts
    • Podcast "Talk innovation"

    Podcast

    Von der Idee zur Erfindung: unser Podcast informiert Sie topaktuell in Sachen Technik und IP

  • Lernen

    Lernen

    Europäische Patentakademie – unser Kursportal für Ihre Fortbildung

    Zur Übersicht 

    • Übersicht
    • Schulungsaktivitäten und Lernpfade
      • Übersicht
      • Schulungsaktivitäten
      • Lernpfade
    • EEP und EPVZ
      • Übersicht
      • EEP – Europäische Eignungsprüfung
      • EPVZ – Europäisches Patentverwaltungszertifikat
      • CSP – Programm zur Unterstützung von Bewerbern
    • Lernmaterial nach Interesse
      • Übersicht
      • Patenterteilung
      • Technologietransfer und -verbreitung
      • Durchsetzung
    • Lernmaterial nach Profil
      • Übersicht
      • Geschäftswelt und IP
      • EEP und EPVZ Bewerber
      • Justiz
      • Nationale Ämter und IP-Behörden
      • Patentanwaltskanzleien
      • Lehre und Forschung
    Bild
    Patent Academy catalogue

    Werfen Sie einen Blick auf das umfangreiche Lernangebot im Schulungskatalog der Europäischen Patentakademie

  • Über uns

    Über uns

    Erfahren Sie mehr über Tätigkeit, Werte, Geschichte und Vision des EPA

    Zur Übersicht 

    • Übersicht
    • Das EPA auf einen Blick
    • 50 Jahre Europäisches Patentübereinkommen
      • Übersicht
      • Official celebrations
      • Member states’ video statements
      • 50 Leading Tech Voices
      • Athens Marathon
      • Kinderwettbewerb für kollektive Kunst
    • Rechtsgrundlagen und Mitgliedstaaten
      • Übersicht
      • Rechtsgrundlagen
      • Mitgliedstaaten der Europäischen Patentorganisation
      • Erstreckungsstaaten
      • Validierungsstaaten
    • Verwaltungsrat und nachgeordnete Organe
      • Übersicht
      • Kommuniqués
      • Kalender
      • Dokumente und Veröffentlichungen
      • Der Verwaltungsrat der Europäischen Patentorganisation
    • Unsere Grundsätze und Strategie
      • Übersicht
      • Auftrag, Vision und Werte
      • Strategischer Plan 2028
      • Auf dem Weg zu einer neuen Normalität
    • Führung und Management
      • Übersicht
      • Präsident António Campinos
      • Managementberatungsausschuss
    • Sustainability at the EPO
      • Übersicht
      • Environmental
      • Social
      • Governance and Financial sustainability
    • Dienste & Aktivitäten
      • Übersicht
      • Unsere Dienste & Struktur
      • Qualität
      • Nutzerkonsultation
      • Europäische und internationale Zusammenarbeit
      • Europäische Patentakademie
      • Chefökonom
      • Ombudsstelle
      • Meldung von Fehlverhalten
    • Beobachtungsstelle für Patente und Technologie
      • Übersicht
      • Akteure im Innovationsbereich
      • Politisches Umfeld und Finanzierung
      • Tools
      • Über die Beobachtungsstelle
    • Beschaffung
      • Übersicht
      • Beschaffungsprognose
      • Das EPA als Geschäftspartner
      • Beschaffungsverfahren
      • Nachhaltiger Beschaffungsstandard
      • Registrierung zum eTendering und elektronische Signaturen
      • Beschaffungsportal
      • Rechnungsstellung
      • Allgemeine Bedingungen
      • Archivierte Ausschreibungen
    • Transparenzportal
      • Übersicht
      • Allgemein
      • Humankapital
      • Umweltkapital
      • Organisationskapital
      • Sozial- und Beziehungskapital
      • Wirtschaftskapital
      • Governance
    • Statistics and trends
      • Übersicht
      • Statistics & Trends Centre
      • Patent Index 2024
      • EPO Data Hub
      • Clarification on data sources
    • Die Geschichte des EPA
      • Übersicht
      • 1970er-Jahre
      • 1980er-Jahre
      • 1990er-Jahre
      • 2000er-Jahre
      • 2010er-Jahre
      • 2020er Jahre
    • Die EPA Kunstsammlung
      • Übersicht
      • Die Sammlung
      • Let's talk about art
      • Künstler
      • Mediathek
      • What's on
      • Publikationen
      • Kontakt
      • Kulturraum A&T 5-10
      • "Lange Nacht"
    Bild
    Patent Index 2024 keyvisual showing brightly lit up data chip, tinted in purple, bright blue

    Verfolgen Sie die neuesten Technologietrends mit unserem Patentindex

 
Website
en de fr
  • Language selection
  • English
  • Deutsch
  • Français
Main navigation
  • Homepage
    • Go back
    • Sind Patente Neuland für Sie?
  • Sind Patente Neuland für Sie?
    • Go back
    • Patente für Ihr Unternehmen?
    • Warum ein Patent?
    • Was ist Ihre zündende Idee?
    • Sind Sie bereit?
    • Darum geht es
    • Der Weg zum Patent
    • Ist es patentierbar?
    • Ist Ihnen jemand zuvorgekommen?
    • Patentquiz
    • Video zum Einheitspatent
  • Patentrecherche
    • Go back
    • Übersicht
    • Technische Information
      • Go back
      • Übersicht
      • Espacenet - Patentsuche
        • Go back
        • Übersicht
        • Datenbanken der nationalen Ämter
        • Global Patent Index (GPI)
        • Versionshinweise
      • Europäischer Publikationsserver
        • Go back
        • Übersicht
        • Versionshinweise
        • Konkordanzliste für Euro-PCT-Anmeldungen
        • EP-Normdatei
        • Hilfe
      • EP-Volltextrecherche
    • Rechtliche Information
      • Go back
      • Übersicht
      • Europäisches Patentregister
        • Go back
        • Übersicht
        • Versionshinweise: Archiv
        • Dokumentation zu Register
          • Go back
          • Übersicht
          • Datenverfügbarkeit für Deep Links
          • Vereinigtes Register
          • Ereignisse im Register
      • Europäisches Patentblatt
        • Go back
        • Übersicht
        • Patentblatt herunterladen
        • Recherche im Europäischen Patentblatt
        • Hilfe
      • European Case Law Identifier Sitemap
      • Einwendungen Dritter
    • Geschäftsinformationen
      • Go back
      • Übersicht
      • PATSTAT
      • IPscore
        • Go back
        • Versionshinweise
      • Technologieanalyseberichte
    • Daten
      • Go back
      • Übersicht
      • Technology Intelligence Platform
      • Linked open EP data
      • Massendatensätze
        • Go back
        • Übersicht
        • Manuals
        • Sequenzprotokolle
        • Nationale Volltextdaten
        • Daten des Europäischen Patentregisters
        • Weltweite bibliografische Daten des EPA (DOCDB)
        • EP-Volltextdaten
        • Weltweite Rechtsereignisdaten des EPA (INPADOC)
        • Bibliografische Daten von EP-Dokumenten (EBD)
        • Entscheidungen der Beschwerdekammern des EPA
      • Web-Dienste
        • Go back
        • Übersicht
        • Open Patent Services (OPS)
        • Europäischer Publikationsserver (Web-Dienst)
      • Datenbestände, Codes und Statistiken
        • Go back
        • Wöchentliche Aktualisierungen
        • Regelmäßige Aktualisierungen
    • Technologieplattformen
      • Go back
      • Kunststoffe im Wandel
        • Go back
        • Overview
        • Verwertung von Plastikabfällen
        • Recycling von Plastikabfällen
        • Alternative Kunststoffe
      • Übersicht
      • Innovative Wassertechnologien
        • Go back
        • Overview
        • Sauberes Wasser
        • Schutz vor Wasser
      • Innovationen im Weltraumsektor
        • Go back
        • Übersicht
        • Kosmonautik
        • Weltraumbeobachtung
      • Technologien zur Bekämpfung von Krebs
        • Go back
        • Übersicht
        • Prävention und Früherkennung
        • Diagnostik
        • Therapien
        • Wohlergehen und Nachsorge
      • Technologien zur Brandbekämpfung
        • Go back
        • Übersicht
        • Branderkennung und -verhütung
        • Feuerlöschen
        • Schutzausrüstung
        • Technologien für die Sanierung nach Bränden
      • Saubere Energietechnologien
        • Go back
        • Übersicht
        • Erneuerbare Energien
        • CO2-intensive Industrien
        • Energiespeicherung und andere Enabling-Technologien
      • Kampf gegen Corona
        • Go back
        • Übersicht
        • Impfstoffe und Therapeutika
          • Go back
          • Übersicht
          • Impfstoffe
          • Übersicht über Therapieansätze für COVID-19
          • Kandidaten für antivirale Therapeutika
          • Nukleinsäuren zur Behandlung von Coronavirus-Infektionen
        • Diagnose und Analyse
          • Go back
          • Übersicht
          • Protein-und Nukleinsäure-Nachweis
          • Analyseprotokolle
        • Informatik
          • Go back
          • Übersicht
          • Bioinformatik
          • Medizinische Informatik
        • Technologien für die neue Normalität
          • Go back
          • Übersicht
          • Geräte, Materialien und Ausrüstung
          • Verfahren, Maßnahmen und Aktivitäten
          • Digitale Technologien
        • Erfinderinnen und Erfinder gegen das Coronavirus
    • Nützliche Informationsquellen
      • Go back
      • Übersicht
      • Zum ersten Mal hier? Was ist Patentinformation?
        • Go back
        • Übersicht
        • Grundlegende Definitionen
        • Patentklassifikation
          • Go back
          • Übersicht
          • Gemeinsame Patentklassifikation
        • Patentfamilien
          • Go back
          • Übersicht
          • Einfache DOCDB Patentfamilie
          • Erweiterte INPADOC Patentfamilie
        • Daten zu Rechtsstandsereignissen
          • Go back
          • Übersicht
          • INPADOC-Klassifikationssystem
      • Patentinformation aus Asien
        • Go back
        • Übersicht
        • China (CN)
          • Go back
          • Übersicht
          • Facts and figures
          • Grant procedure
          • Numbering system
          • Useful terms
          • Searching in databases
        • Chinesisch-Taipei (TW)
          • Go back
          • Übersicht
          • Grant procedure
          • Numbering system
          • Useful terms
          • Searching in databases
        • Indien (IN)
          • Go back
          • Übersicht
          • Facts and figures
          • Grant procedure
          • Numbering system
        • Japan (JP)
          • Go back
          • Übersicht
          • Facts and figures
          • Grant procedure
          • Numbering system
          • Useful terms
          • Searching in databases
        • Korea (KR)
          • Go back
          • Übersicht
          • Facts and figures
          • Grant procedure
          • Numbering system
          • Useful terms
          • Searching in databases
        • Russische Föderation (RU)
          • Go back
          • Übersicht
          • Facts and figures
          • Numbering system
          • Searching in databases
        • Useful links
      • Patentinformationszentren (PATLIB)
      • Patent Translate
      • Patent Knowledge News
      • Wirtschaft und Statistik
      • Patentinformationen rund um den einheitlichen Patentschutz
  • Anmelden eines Patents
    • Go back
    • Übersicht
    • Europäischer Weg
      • Go back
      • Übersicht
      • Leitfaden zum europäischen Patent
      • Einsprüche
      • Mündliche Verhandlung
        • Go back
        • Kalender der mündlichen Verhandlungen
          • Go back
          • Kalender der mündlichen Verhandlungen
          • Technische Richtlinien
          • Zugang für die Öffentlichkeit zum Beschwerdeverfahren
          • Zugang für die Öffentlichkeit zum Einspruchsverfahren
      • Beschwerden
      • Einheitspatent & Einheitliches Patentgericht
        • Go back
        • Einheitspatent
          • Go back
          • Übersicht
          • Rechtlicher Rahmen
          • Wesentliche Merkmale
          • Beantragung eines Einheitspatents
          • Kosten eines Einheitspatents
          • Übersetzungsregelungen und Kompensationssystem
          • Starttermin
          • Introductory brochures
        • Übersicht
        • Einheitliches Patentgericht
      • Nationale Validierung
      • Erstreckungs- /Validierungsantrag
    • Internationaler Weg
      • Go back
      • Übersicht
      • Euro-PCT-Leitfaden
      • Eintritt in die europäische Phase
      • Beschlüsse und Mitteilungen
      • PCT-Bestimmungen und Informationsquellen
      • Erstreckungs-/Validierungsantrag
      • Programm für verstärkte Partnerschaft
      • Beschleunigung Ihrer PCT-Anmeldung
      • Patent Prosecution Highway (PPH)
        • Go back
        • Programm "Patent Prosecution Highway" (PPH) - Übersicht
      • PCT: Schulungen und Veranstaltungen
    • Nationaler Weg
    • MyEPO Services
      • Go back
      • Übersicht
      • Unsere Dienste verstehen
        • Go back
        • Übersicht
        • Exchange data with us using an API
          • Go back
          • Versionshinweise
      • Zugriff erhalten
        • Go back
        • Übersicht
        • Versionshinweise
      • Bei uns einreichen
        • Go back
        • Bei uns einreichen
        • Wenn unsere Dienste für die Online-Einreichung ausfallen
        • Versionshinweise
      • Akten interaktiv bearbeiten
        • Go back
        • Versionshinweise
      • Verfügbarkeit der Online-Dienste
    • Gebühren
      • Go back
      • Übersicht
      • Europäische Gebühren (EPÜ)
        • Go back
        • Übersicht
        • Beschlüsse und Mitteilungen
      • Internationale Gebühren (PCT)
        • Go back
        • Ermäßigung der Gebühren
        • Gebühren für internationale Anmeldungen
        • Beschlüsse und Mitteilungen
        • Übersicht
      • Einheitspatentgebühren (UP)
        • Go back
        • Übersicht
        • Beschlüsse und Mitteilungen
      • Gebührenzahlung und Rückerstattung
        • Go back
        • Übersicht
        • Zahlungsarten
        • Erste Schritte
        • FAQs und sonstige Anleitungen
        • Technische Informationen für Sammelzahlungen
        • Beschlüsse und Mitteilungen
        • Versionshinweise
      • Warnung
    • Formblätter
      • Go back
      • Prüfungsantrag
      • Übersicht
    • Zugelassenen Vertreter suchen
  • Recht & Praxis
    • Go back
    • Übersicht
    • Rechtstexte
      • Go back
      • Übersicht
      • Europäisches Patentübereinkommen
        • Go back
        • Übersicht
        • Archiv
          • Go back
          • Übersicht
          • Dokumentation zur EPÜ-Revision 2000
            • Go back
            • Übersicht
            • Diplomatische Konferenz für die Revision des EPÜ
            • "Travaux préparatoires" (Vorarbeiten)
            • Neufassung
            • Übergangsbestimmungen
            • Ausführungsordnung zum EPÜ 2000
            • Gebührenordnung
            • Ratifikationen und Beitritte
          • Travaux Préparatoires EPÜ 1973
      • Amtsblatt
      • Richtlinien
        • Go back
        • Übersicht
        • EPÜ Richtlinien
        • PCT-EPA Richtlinien
        • Richtlinien für das Einheitspatent
        • Überarbeitung der Richtlinien
        • Ergebnisse der Konsultation
        • Zusammenfassung der Nutzerbeiträge
        • Archiv
      • Erstreckungs-/Validierungssystem
      • Londoner Übereinkommen
      • Nationales Recht zum EPÜ
        • Go back
        • Übersicht
        • Archiv
      • Einheitspatentsystem
        • Go back
        • Travaux préparatoires to UP and UPC
      • Nationale Maßnahmen zum Einheitspatent
    • Gerichtspraxis
      • Go back
      • Übersicht
      • Symposium europäischer Patentrichter
    • Nutzerbefragungen
      • Go back
      • Übersicht
      • Laufende Befragungen
      • Abgeschlossene Befragungen
    • Harmonisierung des materiellen Patentrechts
      • Go back
      • Übersicht
      • The Tegernsee process
      • Gruppe B+
    • Konvergenz der Verfahren
    • Optionen für zugelassene Vertreter
  • Neues & Veranstaltungen
    • Go back
    • Übersicht
    • News
    • Veranstaltungen
    • Europäischer Erfinderpreis
      • Go back
      • The meaning of tomorrow
      • Übersicht
      • Über den Preis
      • Kategorien und Preise
      • Lernen Sie die Erfinder kennen
      • Nominierungen
      • European Inventor Network
        • Go back
        • 2024 activities
        • 2025 activities
        • Rules and criteria
        • FAQ
      • Preisverleihung 2024
    • Young Inventors Prize
      • Go back
      • Übersicht
      • Über den Preis
      • Nominierungen
      • Die Jury
      • Die Welt, neu gedacht
      • Preisverleihung 2025
    • Pressezentrum
      • Go back
      • Übersicht
      • Patent Index und Statistiken
      • Pressezentrum durchsuchen
      • Hintergrundinformation
        • Go back
        • Übersicht
        • Europäisches Patentamt
        • Fragen und Antworten zu Patenten im Zusammenhang mit dem Coronavirus
        • Fragen und Antworten zu Pflanzenpatenten
      • Copyright
      • Pressekontakt
      • Rückruf Formular
      • Presseinfos per Mail
    • Im Blickpunkt
      • Go back
      • Übersicht
      • Wasserbezogene Technologien
      • CodeFest
        • Go back
        • CodeFest Spring 2025 on classifying patent data for sustainable development
        • Übersicht
        • CodeFest 2024 zu generativer KI
        • Codefest 2023 zu grünen Kunststoffen
      • Green tech in focus
        • Go back
        • Übersicht
        • About green tech
        • Renewable energies
        • Energy transition technologies
        • Building a greener future
      • Forschungseinrichtungen
      • Women inventors
      • Lifestyle
      • Raumfahrt und Satelliten
        • Go back
        • Weltraumtechnologie und Patente
        • Übersicht
      • Gesundheit
        • Go back
        • Übersicht
        • Medizintechnik und Krebs
        • Personalised medicine
      • Werkstoffkunde
        • Go back
        • Übersicht
        • Nanotechnologie
      • Mobile Kommunikation
      • Biotechnologie
        • Go back
        • Rot, weiß oder grün
        • Übersicht
        • Die Rolle des EPA
        • Was ist patentierbar?
        • Biotechnologische Erfindungen und ihre Erfinder
      • Patentklassifikation
        • Go back
        • Übersicht
        • Nanotechnology
        • Climate change mitigation technologies
          • Go back
          • Übersicht
          • External partners
          • Updates on Y02 and Y04S
      • Digitale Technologien
        • Go back
        • Übersicht
        • Über IKT
        • Hardware und Software
        • Künstliche Intelligenz
        • Vierte Industrielle Revolution
      • Additive Fertigung
        • Go back
        • Übersicht
        • Die additive Fertigung
        • Innovation durch AM
      • Books by EPO experts
    • Podcast
  • Lernen
    • Go back
    • Übersicht
    • Schulungsaktivitäten und Lernpfade
      • Go back
      • Übersicht
      • Schulungsaktivitäten: Arten und Formate
      • Lernpfade
    • EEP und EPVZ
      • Go back
      • Übersicht
      • EEP – Europäische Eignungsprüfung
        • Go back
        • Übersicht
        • Compendium
          • Go back
          • Übersicht
          • Aufgabe F
          • Aufgabe A
          • Aufgabe B
          • Aufgabe C
          • Aufgabe D
          • Vorprüfung
        • Erfolgreiche Bewerber
        • Archiv
      • EPVZ – Europäisches Patentverwaltungszertifikat
      • CSP – Programm zur Unterstützung von Bewerbern
    • Angebot für bestimmte Interessengebiete
      • Go back
      • Übersicht
      • Patenterteilung
      • Technologietransfer und -verbreitung
      • Patentdurchsetzung und Streitregelung
    • Angebot für bestimmte Zielgruppen
      • Go back
      • Übersicht
      • Geschäftswelt und IP
        • Go back
        • Übersicht
        • Innovation case studies
          • Go back
          • Overview
          • SME case studies
          • Fallstudien zum Technologietransfer
          • Fallstudien zu wachstumsstarken Technologien
        • Inventor's handbook
          • Go back
          • Übersicht
          • Introduction
          • Disclosure and confidentiality
          • Novelty and prior art
          • Competition and market potential
          • Assessing the risk ahead
          • Proving the invention
          • Protecting your idea
          • Building a team and seeking funding
          • Business planning
          • Finding and approaching companies
          • Dealing with companies
        • Best of search matters
          • Go back
          • Übersicht
          • Tools and databases
          • EPO procedures and initiatives
          • Search strategies
          • Challenges and specific topics
        • Support for high-growth technology businesses
          • Go back
          • Übersicht
          • Business decision-makers
          • IP professionals
          • Stakeholders of the Innovation Ecosystem
      • EEP und EPVZ Bewerber
        • Go back
        • Übersicht
        • Denkaufgaben zu Aufgabe F
        • Tägliche Fragen zur Aufgabe D
        • Europäische Eignungsprüfung - Leitfaden zur Vorbereitung
        • EPVZ
      • Richter, Anwälte und Staatsanwälte
        • Go back
        • Übersicht
        • Compulsory licensing in Europe
        • Die Zuständigkeit europäischer Gerichte bei Patentstreitigkeiten
      • Nationale Ämter und IP-Behörden
        • Go back
        • Übersicht
        • Lernpfad für Patentprüfer der nationalen Ämter
        • Lernpfad für Formalsachbearbeiter und Paralegals
      • Patentanwaltskanzleien
      • Hochschulen, Forschungseinrichtungen und Technologietransferstellen
        • Go back
        • Übersicht
        • Modularer IP-Ausbildungsrahmen (MIPEF)
        • Programm "Pan-European-Seal für junge Fachkräfte"
          • Go back
          • Übersicht
          • Für Studierende
          • Für Hochschulen
            • Go back
            • Übersicht
            • IP-Schulungsressourcen
            • Hochschulmitgliedschaften
          • Unsere jungen Fachkräfte
          • Beruflicher Entwicklungsplan
        • Akademisches Forschungsprogramm (ARP)
          • Go back
          • Übersicht
          • Abgeschlossene Forschungsprojekte
          • Laufende Forschungsprojekte
        • IP Teaching Kit
          • Go back
          • Übersicht
          • Download modules
        • Handbuch für die Gestaltung von IP-Kursen
        • PATLIB Wissenstransfer nach Afrika
          • Go back
          • Die PATLIB-Initiative "Wissenstransfer nach Afrika" (KT2A)
          • KT2A-Kernaktivitäten
          • Erfolgsgeschichte einer KT2A-Partnerschaft: PATLIB Birmingham und Malawi University of Science and Technology
  • Über uns
    • Go back
    • Übersicht
    • Das EPA auf einen Blick
    • 50 Jahre EPÜ
      • Go back
      • Official celebrations
      • Übersicht
      • Member states’ video statements
        • Go back
        • Albania
        • Austria
        • Belgium
        • Bulgaria
        • Croatia
        • Cyprus
        • Czech Republic
        • Denmark
        • Estonia
        • Finland
        • France
        • Germany
        • Greece
        • Hungary
        • Iceland
        • Ireland
        • Italy
        • Latvia
        • Liechtenstein
        • Lithuania
        • Luxembourg
        • Malta
        • Monaco
        • Montenegro
        • Netherlands
        • North Macedonia
        • Norway
        • Poland
        • Portugal
        • Romania
        • San Marino
        • Serbia
        • Slovakia
        • Slovenia
        • Spain
        • Sweden
        • Switzerland
        • Türkiye
        • United Kingdom
      • 50 Leading Tech Voices
      • Athens Marathon
      • Kinderwettbewerb für kollektive Kunst
    • Rechtsgrundlagen und Mitgliedstaaten
      • Go back
      • Übersicht
      • Rechtsgrundlagen
      • Mitgliedstaaten
        • Go back
        • Übersicht
        • Mitgliedstaaten sortiert nach Beitrittsdatum
      • Erstreckungsstaaten
      • Validierungsstaaten
    • Verwaltungsrat und nachgeordnete Organe
      • Go back
      • Übersicht
      • Kommuniqués
        • Go back
        • 2024
        • Übersicht
        • 2023
        • 2022
        • 2021
        • 2020
        • 2019
        • 2018
        • 2017
        • 2016
        • 2015
        • 2014
        • 2013
      • Kalender
      • Dokumente und Veröffentlichungen
        • Go back
        • Übersicht
        • Dokumente des Engeren Ausschusses
      • Verwaltungsrat
        • Go back
        • Übersicht
        • Zusammensetzung
        • Vertreter
        • Geschäftsordnung
        • Kollegium der Rechnungsprüfer
        • Sekretariat
        • Nachgeordnete Organe
    • Grundsätze
      • Go back
      • Übersicht
      • Auftrag, Vision und Werte
      • Strategieplan 2028
        • Go back
        • Treiber 1: Personal
        • Treiber 2: Technologien
        • Treiber 3: Qualitativ hochwertige Produkte und Dienstleistungen
        • Treiber 4: Partnerschaften
        • Treiber 5: Finanzielle Nachhaltigkeit
      • Auf dem Weg zu einer neuen Normalität
      • Datenschutzerklärung
    • Führung und Management
      • Go back
      • Übersicht
      • Über den Präsidenten
      • Managementberatungsausschuss
    • Nachhaltigkeit beim EPA
      • Go back
      • Overview
      • Umwelt
        • Go back
        • Overview
        • Inspirierende Erfindungen für die Umwelt
      • Soziales
        • Go back
        • Overview
        • Inspirierende soziale Erfindungen
      • Governance und finanzielle Nachhaltigkeit
    • Beschaffung
      • Go back
      • Übersicht
      • Beschaffungsprognose
      • Das EPA als Geschäftspartner
      • Beschaffungsverfahren
      • Veröffentlichungen des Dynamischen Beschaffungssystems
      • Nachhaltiger Beschaffungsstandard
      • Über eTendering
      • Rechnungsstellung
      • Beschaffungsportal
        • Go back
        • Übersicht
        • Elektronische Signatur von Verträgen
      • Allgemeine Bedingungen
      • Archivierte Ausschreibungen
    • Dienste & Aktivitäten
      • Go back
      • Übersicht
      • Unsere Dienste & Struktur
      • Qualität
        • Go back
        • Übersicht
        • Grundlagen
          • Go back
          • Übersicht
          • Europäisches Patentübereinkommen
          • Richtlinien für die Prüfung
          • Unsere Bediensteten
        • Qualität ermöglichen
          • Go back
          • Übersicht
          • Stand der Technik
          • Klassifikationssystem
          • Tools
          • Qualitätssicherung
        • Produkte & Dienstleistungen
          • Go back
          • Übersicht
          • Recherche
          • Prüfung
          • Einspruch
          • Fortlaufende Verbesserung
        • Qualität durch Netzwerke
          • Go back
          • Übersicht
          • Nutzerengagement
          • Zusammenarbeit
          • Befragung zur Nutzerzufriedenheit
          • Stakeholder-Qualitätssicherungspanels
        • Charta für Patentqualität
        • Qualitätsaktionsplan
        • Qualitäts-Dashboard
        • Statistik
          • Go back
          • Übersicht
          • Recherche
          • Prüfung
          • Einspruch
        • Integriertes Management beim EPA
      • Charta unserer Kundenbetreuung
      • Nutzerkonsultation
        • Go back
        • Übersicht
        • Ständiger Beratender Ausschuss beim EPA
          • Go back
          • Übersicht
          • Ziele
          • Der SACEPO und seine Arbeitsgruppen
          • Sitzungen
          • Bereich für Delegierte
        • Befragungen
          • Go back
          • Übersicht
          • Methodik
          • Recherche
          • Sachprüfung, abschließende Aktionen und Veröffentlichung
          • Einspruch
          • Formalprüfung
          • Kundenbetreuung
          • Einreichung
          • Key Account Management (KAM)
          • EPA-Website
          • Archiv
      • Europäische und internationale Zusammenarbeit
        • Go back
        • Übersicht
        • Zusammenarbeit mit den Mitgliedstaaten
          • Go back
          • Übersicht
        • Bilaterale Zusammenarbeit mit Nichtmitgliedstaaten
          • Go back
          • Übersicht
          • Validierungssystem
          • Programm für verstärkte Partnerschaft
        • Internationale Organisationen, Trilaterale und IP5
        • Zusammenarbeit mit internationalen Organisationen außerhalb des IP-Systems
      • Europäische Patentakademie
        • Go back
        • Übersicht
        • Partner
      • Chefökonom
        • Go back
        • Übersicht
        • Wirtschaftliche Studien
      • Ombudsstelle
      • Meldung von Fehlverhalten
    • Beobachtungsstelle für Patente und Technologie
      • Go back
      • Übersicht
      • Innovation gegen Krebs
      • Akteure im Innovationsbereich
        • Go back
        • Übersicht
        • Start-ups und KMU
      • Politisches Umfeld und Finanzierung
        • Go back
        • Übersicht
        • Programm zur Innovationsfinanzierung
          • Go back
          • Übersicht
          • Unsere Studien zur Innovationsfinanzierung
          • EPA-Initiativen für Patentanmelder/innen
          • Programm zur Innovationsfinanzierung
        • Patente und Normen
          • Go back
          • Übersicht
          • Publikationen
          • Patent standards explorer
      • Tools
        • Go back
        • Übersicht
        • Deep Tech Finder
      • Über die Beobachtungsstelle
        • Go back
        • Übersicht
        • Arbeitsplan
    • Transparency portal
      • Go back
      • Übersicht
      • Allgemein
        • Go back
        • Übersicht
        • Annual Review 2023
          • Go back
          • Overview
          • Foreword
          • Executive summary
          • 50 years of the EPC
          • Strategic key performance indicators
          • Goal 1: Engaged and empowered
          • Goal 2: Digital transformation
          • Goal 3: Master quality
          • Goal 4: Partner for positive impact
          • Goal 5: Secure sustainability
        • Annual Review 2022
          • Go back
          • Übersicht
          • Foreword
          • Executive summary
          • Goal 1: Engaged and empowered
          • Goal 2: Digital transformation
          • Goal 3: Master quality
          • Goal 4: Partner for positive impact
          • Goal 5: Secure sustainability
      • Humankapital
      • Umweltkapital
      • Organisationskapital
      • Sozial- und Beziehungskapital
      • Wirtschaftskapital
      • Governance
    • Statistics and trends
      • Go back
      • Übersicht
      • Statistics & Trends Centre
      • Patent Index 2024
        • Go back
        • Insight into computer technology and AI
        • Insight into clean energy technologies
        • Statistics and indicators
          • Go back
          • European patent applications
            • Go back
            • Key trend
            • Origin
            • Top 10 technical fields
              • Go back
              • Computer technology
              • Electrical machinery, apparatus, energy
              • Digital communication
              • Medical technology
              • Transport
              • Measurement
              • Biotechnology
              • Pharmaceuticals
              • Other special machines
              • Organic fine chemistry
            • All technical fields
          • Applicants
            • Go back
            • Top 50
            • Categories
            • Women inventors
          • Granted patents
            • Go back
            • Key trend
            • Origin
            • Designations
      • Data to download
      • EPO Data Hub
      • Clarification on data sources
    • Geschichte
      • Go back
      • Übersicht
      • 1970er-Jahre
      • 1980er-Jahre
      • 1990er-Jahre
      • 2000er-Jahre
      • 2010er-Jahre
      • 2020er Jahre
    • Kunstsammlung
      • Go back
      • Übersicht
      • Die Sammlung
      • Let's talk about art
      • Künstler
      • Mediathek
      • What's on
      • Publikationen
      • Kontakt
      • Kulturraum A&T 5-10
        • Go back
        • Catalyst lab & Deep vision
          • Go back
          • Irene Sauter (DE)
          • AVPD (DK)
          • Jan Robert Leegte (NL)
          • Jānis Dzirnieks (LV) #1
          • Jānis Dzirnieks (LV) #2
          • Péter Szalay (HU)
          • Thomas Feuerstein (AT)
          • Tom Burr (US)
          • Wolfgang Tillmans (DE)
          • TerraPort
          • Unfinished Sculpture - Captives #1
          • Deep vision – immersive exhibition
          • Frühere Ausstellungen
        • The European Patent Journey
        • Sustaining life. Art in the climate emergency
        • Next generation statements
        • Open storage
        • Cosmic bar
      • "Lange Nacht"
  • Beschwerdekammern
    • Go back
    • Übersicht
    • Entscheidungen der Beschwerdekammern
      • Go back
      • Neue Entscheidungen
      • Übersicht
      • Ausgewählte Entscheidungen
    • Mitteilungen der Beschwerdekammern
    • Verfahren
    • Mündliche Verhandlungen
    • Über die Beschwerdekammern
      • Go back
      • Übersicht
      • Präsident der Beschwerdekammern
      • Große Beschwerdekammer
        • Go back
        • Übersicht
        • Pending referrals (Art. 112 EPC)
        • Decisions sorted by number (Art. 112 EPC)
        • Pending petitions for review (Art. 112a EPC)
        • Decisions on petitions for review (Art. 112a EPC)
      • Technische Beschwerdekammern
      • Juristische Beschwerdekammer
      • Beschwerdekammer in Disziplinarangelegenheiten
      • Präsidium
        • Go back
        • Übersicht
    • Verhaltenskodex
    • Geschäftsverteilungsplan
      • Go back
      • Übersicht
      • Technical boards of appeal by IPC in 2025
      • Archiv
    • Jährliche Liste der Verfahren
    • Mitteilungen
    • Jahresberichte
      • Go back
      • Übersicht
    • Veröffentlichungen
      • Go back
      • Abstracts of decisions
    • Rechtsprechung der Beschwerdekammern
      • Go back
      • Übersicht
      • Archiv
  • Service & Unterstützung
    • Go back
    • Übersicht
    • Aktualisierungen der Website
    • Verfügbarkeit der Online-Dienste
      • Go back
      • Übersicht
    • FAQ
      • Go back
      • Übersicht
    • Veröffentlichungen
    • Bestellung
      • Go back
      • Patentwissen – Produkte und Dienste
      • Übersicht
      • Allgemeine Geschäftsbedingungen
        • Go back
        • Übersicht
        • Patentinformationsprodukte
        • Massendatensätze
        • Open Patent Services (OPS)
        • Leitfaden zur fairen Nutzung
    • Verfahrensbezogene Mitteilungen
    • Nützliche Links
      • Go back
      • Übersicht
      • Patentämter der Mitgliedstaaten
      • Weitere Patentämter
      • Verzeichnisse von Patentvertretern
      • Patentdatenbanken, Register und Patentblätter
      • Haftungsausschluss
    • Aboverwaltung
      • Go back
      • Übersicht
      • Anmelden
      • Einstellungen verwalten
      • Abmelden
    • Veröffentlichungen
      • Go back
      • Übersicht
      • Möglichkeiten der Einreichung
      • Standorte
    • Offizielle Feiertage
    • Glossar
    • RSS-Feeds
Anhänge
  1. Home
  2. Rechtstexte
  3. Leitfaden zum europäischen Patent
  4. Inhalt
  5. Anhänge
  6. Anhang II
  7. Beispiel aus dem Bereich Computer
Drucken
Facebook Twitter Linkedin Email

Anhang II – Beispiele für europäische Patentanmeldungen

Übersicht

Kapitel 1 – Vorwort
Kapitel 2 – Allgemeiner Teil
2.1 Einleitung
2.2 Wesen und Zweck des Europäischen Patentübereinkommens
2.3 Verhältnis zu anderen internationalen Übereinkommen
2.4 Nationaler, europäischer oder internationaler Weg?
Rechtliche Faktoren
Wirtschaftliche Faktoren
2.5 Erstreckung europäischer Patente auf Nichtvertragsstaaten bzw. Validierung in diesen Staaten
Kapitel 3 – Patentierbarkeit
3.1 Einleitung
3.2 Erfindung
3.3 Neuheit
Grundsatz
Ältere Rechte
3.4 Erfinderische Tätigkeit
Kapitel 4 – Erstellung und Einreichung der europäischen Patentanmeldung
4.1 Formerfordernisse
Wer kann eine europäische Patentanmeldung einreichen?
Für welche Staaten können europäische Patentanmeldungen eingereicht werden?
Sprache der europäischen Patentanmeldung
Sprachliche Erleichterungen für Anmelder aus bestimmten Vertragsstaaten
Gebührenbezogene Unterstützung für kleinere Einheiten
Bestandteile der europäischen Patentanmeldung
Erteilungsantrag
Erfindernennung
Inanspruchnahme der Priorität
Anmeldung durch Bezugnahme
Vertretung
4.2 Darstellung der Erfindung
Offenbarung der Erfindung
Einheitlichkeit der Erfindung
Erstellung der technischen Anmeldungsunterlagen
Beschreibung
Anmeldungen auf dem Gebiet der Biotechnologie
Nucleotid- und Aminosäuresequenzen
Ergänzung der Beschreibung durch Hinterlegung von biologischem Material
Patentansprüche
Gebührenpflichtige Patentansprüche
Zeichnungen
Zusammenfassung
Unzulässige Angaben
Einheitlichkeit der europäischen Patentanmeldung und des europäischen Patents
4.3 Einreichung der europäischen Patentanmeldung
Wo und wie kann man anmelden?
Anmeldetag
Empfangsbescheinigung
Übermittlung von bei nationalen Behörden eingereichten Anmeldungen an das EPA
Gebühren
Höhe der Gebühren und Zahlungsart
Rückerstattung von Gebühren
4.4 Einreichung anderer Unterlagen
Wo und wie kann man sie einreichen?
Unterzeichnung
Eingangstag
Empfangsbestätigung
Kapitel 5 – Das europäische Patent­erteilungs­verfahren
5.1 Allgemeiner Überblick
5.2 Verfahren bis zur Veröffentlichung der Anmeldung
Eingangsprüfung
Formalprüfung
Erstellung des europäischen Recherchenberichts
Mangelnde Einheitlichkeit der Erfindung
5.3 Veröffentlichung der europäischen Patentanmeldung
5.4 Prüfungsverfahren
Prüfungsantrag
Ablauf des Verfahrens
Änderungen der Anmeldung vor und während des Prüfungsverfahrens
Anforderungen des nationalen Rechts hinsichtlich der Übersetzung des europäischen Patents
5.5 Einspruchsverfahren
Einspruchsfrist
Einspruchsgründe
Form und Inhalt der Einspruchsschrift
Prüfung der Zulässigkeit des Einspruchs
Materiellrechtliche Prüfung des Einspruchs
5.6 Beschränkungs- und Widerrufsverfahren
5.7 Beschwerdeverfahren
Einlegung der Beschwerde
Abhilfe
Ablauf des Verfahrens vor den Beschwerdekammern
Antrag auf Überprüfung
5.8 Teilanmeldungen
5.9 Jahresgebühren
5.10 Allgemeine Vorschriften über Fristen
Fristversäumnis
Nachholung einer versäumten Handlung
5.11 Eintragung von Rechtsübergängen, Namensänderungen, Lizenzen und anderen Rechten
Rechtsübergänge
Namensänderungen
Lizenzen und andere Rechte
Anhänge
Anhang I – Überblick über das europäische Patent­erteilungs­verfahren
Anhang II – Beispiele für europäische Patentanmeldungen
Beispiel aus dem Bereich Chemie
Beispiel aus dem Bereich Mechanik
Beispiel aus dem Bereich Computer
Anhang III – Behörden, bei denen europäische Patentanmeldungen eingereicht werden können
Anhang IV – Fristen
Anhang V – Gebühren
Anhang VI – Dienstleistungen auf dem Gebiet der Patentinformation

Beispiel aus dem Bereich Computer

Art. 78, 83
R. 42
Erfindungsbeschreibung 

Richtungs-Berührungs-Fernbedienung 

Erfindungsbezeichnung (Angabe im Erteilungsantrag genügt) 

Die vorliegende Technologie betrifft Fernbedienungen und insbesondere Fernbedienungen für Berührungsgeräte. 

R. 42 (1) a)
Technisches Gebiet, auf das sich die Erfindung bezieht 

EINFÜHRUNG 

Mit der wachsenden Komplexität der Geräte werden auch die zugehörigen Fernbedienungen immer komplexer. Die ersten Fernbedienungen waren aufgrund ihrer Einfachheit effektiv, doch mit fortschreitender Technologie mangelte es ihnen an Funktionalität. Heute sind Fernbedienungen mit mehr als fünfzig Tasten gebräuchlich, wobei häufig jede Taste mehrere Funktionen hat. Solche Fernbedienungen erfordern vom Nutzer oft eine intensive Beschäftigung mit dem Gerät, um die Funktion einer Taste zu erlernen, und oft sind die Tasten so klein, dass allzu häufig Befehle versehentlich eingegeben werden. 

Tasten sind praktisch, weil sie bei der Eingabe eines Befehls eine taktile Rückmeldung geben. In einigen Fällen können bestimmte ausgewählte Tasten sogar eine unterschiedliche Anmutung oder Form haben, damit die Fernbedienung mit minimaler visueller Bestätigung, ob die richtige Taste ausgewählt wurde, betätigt werden kann. Allzu häufig wird jedoch selbst bei Formen oder Texturen die Aufmerksamkeit des Nutzers vom ferngesteuerten Gerät auf die Fernbedienung gelenkt, was eine unerwünschte Folge einer komplizierten Benutzerschnittstelle ist. 

Mit Touchscreen-Fernbedienungen wird versucht, einige dieser Probleme zu lösen, doch können dabei wieder andere Probleme geschaffen werden. Bei Touchscreen-Fernbedienungen ist es zwar möglich, weniger Optionen gleichzeitig auf dem Bildschirm anzuzeigen (der Nutzer muss durch Menüs navigieren, um den richtigen Befehl zu finden), doch musste der Nutzer bei Touchscreens schon immer auf die Fernbedienung schauen. Da Touchscreens dem Nutzer keine taktile Rückmeldung zu seiner Auswahl geben, muss er die Auswahl visuell bestätigen, was unerwünscht ist. 

R. 42 (1) b)
Angabe des bisherigen Stands der Technik 

Andere Touchscreen-Fernbedienungen sind anwendungsspezifisch und erfordern eine Zweiwegekommunikation, bei der das ferngesteuerte Gerät die Fernbedienung anweist, eine bestimmte grafische Benutzerschnittstelle anzuzeigen. Der Nutzer muss die Fernbedienung zur Vornahme einer Auswahl ansehen, weil sich die Schnittstelle der Fernbedienung je nach Kontext der Anzeige des ferngesteuerten Geräts ändert. Diese Fernbedienungen haben außerdem den Nachteil, dass sie wegen der wechselseitigen Kommunikation zwischen der Fernbedienung und dem ferngesteuerten Gerät manchmal zu langsam für eine Fernanwendung sind.  

Wieder andere Touchscreen-Fernbedienungen steuern einen Cursor, der auf dem ferngesteuerten Gerät angezeigt wird. Zwar können diese Fernbedienungen bedient werden, indem der Nutzer auf das ferngesteuerte Gerät statt auf die Fernbedienung selbst sieht, doch kann es für den Nutzer zu aufwendig sein, einen Befehl einzugeben. Der Nutzer muss mühsam einen Cursor zu einem Menü navigieren, um den Befehl auszuwählen. Diese Art von Interaktion ist weit entfernt von den Vorteilen früherer Fernbedienungen, bei denen die Steuerung durch eine einfache Tastenbedienung erfolgte. 

Daher ist eine einfache Fernbedienung wünschenswert, die bedient werden kann, ohne dass der Nutzer ihr Display ansehen muss, die schnell und effizient ist und gleichzeitig das Risiko versehentlicher Befehlseingaben minimiert.  

In US2008/0284726 wird eine Vorrichtung zur sensorischen Mediensteuerung beschrieben, die eine Medienvorrichtung mit einem Steuerungselement enthält, die von einer Mediensteuerung einen ersten Befehl erhält, um durch physische Betätigung der Mediensteuerung ein Objekt auszuwählen, und dann einen zweiten Befehl, um das ausgewählte Objekt zu steuern oder durch berührungslose Fingerbewegungen eine Suche auf dem Objekt durchzuführen. 

US2008/0059578 betrifft ein elektronisches Kommunikationssystem mit Gestenerkennung, das die Nutzer über Gesten anderer Nutzer informiert, die an einer Kommunikationssitzung teilnehmen. Das System erfasst eine dreidimensionale Bewegung eines ersten Nutzers aus der Gruppe der Nutzer, die an einer elektronischen Kommunikationssitzung teilnehmen, wobei die dreidimensionale Bewegung bestimmt wird, indem mindestens ein Bilderfassungsgerät auf den ersten Nutzer gerichtet ist. Ausgehend von der erfassten Bewegung, identifiziert das System einen dreidimensionalen Objekteigenschaftsstrom und dann eine bestimmte elektronische Kommunikationsgeste, die den dreidimensionalen Objekteigenschaftsstrom darstellt, indem es den identifizierten dreidimensionalen Objekteigenschaftsstrom mit mehreren Definitionen von elektronischen Kommunikationsgesten vergleicht. 

In US2007/0152976 ist ein Verfahren für die Zurückweisung einer unbeabsichtigten Berührung mit der Handfläche offenbart. In zumindest einigen der Ausführungsformen wird durch eine mit einem Display verbundene berührungsempfindliche Schnittstelle eine Berührung erkannt. Merkmale der Berührung können verwendet werden, um einen Satz von mit der Berührung verbundenen Parametern zu erzeugen. In einer Ausführungsform wird Firmware verwendet, um einen Zuverlässigkeitswert der Berührung zu bestimmen. Der Zuverlässigkeitswert und der Ort der Berührung werden an ein Softwaremodul weitergeleitet. Das Softwaremodul verwendet den Zuverlässigkeitswert und einen Aktivitätskontext, um ein Konfidenzniveau der Berührung zu bestimmen. In einer Ausführungsform kann das Konfidenzniveau eine Bewertung der Änderungen des Zuverlässigkeitswerts über einen bestimmten Zeitraum enthalten. Ist das Konfidenzniveau der Berührung zu niedrig, kann sie zurückgewiesen werden. 

US2004/0218104 betrifft eine Nutzerschnittstelle für Multimedia-Center, die tragbare Nutzereingabegeräte mit Trägheitserfassung verwendet, mit denen die Auswahl von Kanälen und schnelles Navigieren im dichten Auswahlmenü möglich ist. Die extensive Nutzung der hohen Auflösung und Bandbreite solcher Nutzereingabegeräte wird mit Strategien zur Vermeidung unbeabsichtigter Eingaben und mit einer dichten und intuitiven interaktiven grafischen Anzeige kombiniert. 

R. 42 (1) c)
Zu lösende technische Aufgabe 

ZUSAMMENFASSUNG 

Die Erfindung wird durch die beigefügten unabhängigen Ansprüche definiert. Zusätzliche Merkmale und Vorteile der hier offenbarten Konzepte sind in der folgenden Beschreibung dargelegt. Teilweise werden sie auch durch die Beschreibung nahegelegt oder können aus der Praxis der beschriebenen Technologien gelernt werden. Die Merkmale und Vorteile der Konzepte lassen sich mittels der in den beigefügten Ansprüchen herausgestellten Instrumente und Kombinationen umsetzen und erzielen. Diese und andere Merkmale der beschriebenen Technologien werden aus der folgenden Beschreibung und den beigefügten Ansprüchen klar werden oder können aus der Praxis der hier offenbarten Konzepte gelernt werden. 

R. 42 (1) c)
Offenbarung der Erfindung 

Die vorliegende Offenbarung beschreibt Verfahren und Anordnungen zur Fernsteuerung eines Geräts mit generischen Touchscreen-Daten durch Anzeige einer mehrere Kontexte umfassenden grafischen Benutzerschnittstelle (GUI) auf einem Anzeigegerät zur Steuerung zumindest einiger Funktionen eines Geräts. Daten, die ein Berührungsereignis charakterisieren, können empfangen und interpretiert oder in eine Liste verfügbarer Befehle übersetzt werden. Diese Befehle können eine Aktion des Geräts in Reaktion auf die Berührungsdaten bewirken, die unter Heranziehung des Kontexts der GUI interpretiert werden. 

Die vorliegende Offenbarung umfasst ferner ein computerlesbares Medium zur Speicherung von Programmcode, der bewirkt, dass eine Vorrichtung mindestens die Schritte des oben und in dieser Beschreibung erläuterten Verfahrens durchführt.  

In einigen Fällen kann dasselbe Berührungsereignis in mehreren GUI-Kontexten ein und dieselbe Aktion bewirken, in anderen Fällen jedoch unterschiedliche Aktionen in unterschiedlichen Schnittstellenkontexten. 

Jedes tragbare elektronische Gerät kann als Fernbedienung verwendet werden, einschließlich eines Mobiltelefons, Smartphones, PDAs oder tragbaren Media Players. 

Ebenso kann mit der Fernbedienung eine beliebige Zahl von Geräten gesteuert werden, so z. B. ein Multimedia-Verwaltungsprogramm und ein Abspielgerät oder ein digitaler Videorekorder oder ein Fernsehempfänger, wie ein Fernseher oder eine Kabelbox. 

Ebenfalls offenbart ist ein Multifunktionsgerät, das eine Anwendung ausführt, die bewirkt, dass das Multifunktionsgerät als Fernbedienung funktioniert. Bereitgestellt wird ein Touchscreen-Gerät, das eine grafische Benutzerschnittstelle mit einem unstrukturierten berührungsempfindlichen Bereich anzeigt. Der Touchscreen kann so konfiguriert sein, dass er im unstrukturierten berührungsempfindlichen Bereich verschiedene Arten von Eingaben in Form von Berührungsgesten empfangen und die Gesten in elektronische Signale umwandeln kann, wobei der unstrukturierte berührungsempfindliche Bereich mindestens einen Bereich umfasst, der keine individuell auswählbaren Merkmale aufweist. Das Gerät umfasst ferner einen Prozessor zum Empfangen der elektronischen Signale vom berührungsempfindlichen Bereich und zum Übersetzen der Signale zumindest in Positions-, Bewegungs- und Dauerparameter. Außerdem wird eine Kommunikationsschnittstelle bereitgestellt, die die Parameter vom Prozessor empfängt und zur Interpretation an ein Gerät sendet, das ferngesteuert werden soll. Die Kommunikationsschnittstelle kann mindestens ein Protokoll verwenden, das im Wesentlichen unidirektional genutzt werden kann, um die Parameter an das ferngesteuerte Gerät zu senden, wobei auf der Fernbedienung keine Eingabebestätigung empfangen wird. 

In einigen Ausführungsformen ist ein Verfahren zur Fernsteuerung einer Anwendung offenbart, die ausgewählt wird aus einer Vielzahl von möglichen Anwendungen auf ein und demselben oder auf mehreren verschiedenen Remote-Geräten. Daten in Form von Berührungseingaben können in einem unstrukturierten Bereich einer Touchscreen-Schnittstelle empfangen werden. Die Daten können durch ein ferngesteuertes Gerät oder ein Gerät, das eine ferngesteuerte Anwendung hostet, empfangen und in einen Satz verfügbarer Ereignisse interpretiert werden, die von diesem ferngesteuerten Gerät bzw. dieser ferngesteuerten Anwendung erkannt werden können. Basierend auf einer Reihe verfügbarer Ereignisse kann eine mit einem Kontext verknüpfte GUI aktualisiert werden. Die Aktualisierung kann in Reaktion auf die Auswahl eines Ereignisses aus dem Satz der von der ferngesteuerten Anwendung erkennbaren Ereignisse erfolgen, das basierend auf dem mit der angezeigten GUI verknüpften Kontext ausgewählt wird. 

KURZE BESCHREIBUNG DER ZEICHNUNGEN 

Um bestmöglich darzustellen, wie die oben beschriebenen Ausführungsformen umgesetzt werden, und um weitere Vorteile und Merkmale der Offenbarung zu definieren, folgt nachstehend eine detailliertere Beschreibung, die durch die beigefügten Zeichnungen veranschaulicht wird. Diese Zeichnungen geben nur exemplarische Ausführungsformen der Erfindung wieder und sind daher nicht als in ihrem Umfang einschränkend aufzufassen; die Beispiele werden anhand der beigefügten Zeichnungen mit zusätzlichen Angaben und Details beschrieben und erläutert: 

R. 42 (1) d)
Kurze Beschreibung der Zeichnungen 

FIG. 1 zeigt ein beispielhaftes Computergerät; 

FIG. 2 zeigt eine beispielhafte Ausführungsform einer Schnittstelle für eine Fernbedienung; 

FIG. 3 zeigt eine beispielhafte Ausführungsform eines Funktionsdiagrammsystems; 

FIG. 4 zeigt eine beispielhafte Ausführungsform eines Flussdiagramms einer gezielten UI-Steuerungsfunktion; 

FIG. 5 zeigt eine beispielhafte Ausführungsform eines Flussdiagramms einer gezielten UI-Steuerungsfunktion; 

FIG. 6 zeigt eine beispielhafte Ausführungsform eines Flussdiagramms einer gezielten UI-Steuerungsfunktion; 

FIG. 7 zeigt eine beispielhafte Ausführungsform einer Menü-GUI; 

FIG. 8 zeigt eine beispielhafte Ausführungsform einer GUI mit Medienwiedergabe; 

FIG. 9 zeigt eine beispielhafte Ausführungsform eines Verfahrens; und 

FIG. 10 zeigt eine beispielhafte Ausführungsform einer Schnittstelle für eine Fernbedienung. 

DETAILLIERTE BESCHREIBUNG 

Nachstehend werden verschiedene Ausführungsformen der offenbarten Verfahren und Anordnungen ausführlich erörtert. Auch wenn spezifische Umsetzungen diskutiert werden, erfolgt dies nur zu Veranschaulichungszwecken. Ein Fachmann wird erkennen, dass andere Komponenten, Konfigurationen und Schritte verwendet werden können, ohne von der Lehre und vom Umfang der Offenbarung abzuweichen. 

R. 42 (1) e)
Beschreibung wenigstens eines Wegs zur Ausführung der Erfindung 

In FIG. 1 ist ein Universal-Computergerät 100 dargestellt, das tragbar oder stationär sein kann. 

Das Universal-Computergerät kann dazu geeignet sein, die beschriebenen Ausführungsformen durchzuführen, oder in einigen Ausführungsformen können zwei oder mehr Universal-Computergeräte miteinander kommunizieren, um die nachstehend beschriebenen Ausführungsformen durchzuführen. Das Universal-Computergerät 100 ist dargestellt mit einer Prozessoreinheit (CPU) 120 und einem Systembus 110, über den verschiedene Systemkomponenten, einschließlich des Systemspeichers wie des Nur-Lese-Speichers (ROM) 140 und des Direktzugriffsspeichers (RAM) 150 an die Prozessoreinheit 120 gekoppelt sind. Daneben kann auch ein weiterer Systemspeicher 130 zur Nutzung verfügbar sein. Das System kann auf einem Computergerät mit mehr als einer CPU 120 oder auf einer Gruppe oder einem Cluster von Computergeräten laufen, die miteinander vernetzt sind, um eine größere Verarbeitungskapazität bereitzustellen. Der Systembus 110 kann einer von mehreren Typen von Busstrukturen sein, einschließlich eines Speicherbusses oder einer Speichersteuerung, eines Peripheriebusses und eines lokalen Busses unter Verwendung einer Vielzahl von Busarchitekturen. Eine grundlegende Eingabe/Ausgabe (BIOS), die im ROM 140 oder Ähnlichem gespeichert ist, kann die grundlegende Routine bereitstellen, die dazu beiträgt, Informationen zwischen Elementen im Computergerät 100 zu übertragen, beispielsweise während des Startvorgangs. Das Computergerät 100 umfasst ferner Speichervorrichtungen wie ein Festplattenlaufwerk 160, ein Magnetplattenlaufwerk, ein optisches Plattenlaufwerk, ein Bandlaufwerk oder Ähnliches. Die Speichervorrichtung 160 ist über eine Laufwerkschnittstelle mit dem Systembus 110 verbunden. Die Laufwerke und die zugehörigen computerlesbaren Medien stellen eine nicht flüchtige Speicherung von computerlesbaren Befehlen, Datenstrukturen, Programm-Modulen und anderen Daten für das Computergerät 100 bereit. In einer Ausführungsform umfasst ein Hardware-Modul, das eine bestimmte Funktion ausübt, die in einem greifbaren computerlesbaren Medium gespeicherte Software-Komponente in Verbindung mit den erforderlichen Hardware-Komponenten wie CPU, Bus, Display usw. zur Ausführung der Funktion. Die grundlegenden Komponenten sind dem Fachmann bekannt, und geeignete Variationen sind in Abhängigkeit vom Gerätetyp denkbar, je nachdem ob es sich z. B. um ein kleines, tragbares Computergerät, einen Desktop-Computer oder einen großen Computerserver handelt. 

Obwohl die hier beschriebene exemplarische Umgebung eine Festplatte verwendet, sollte der Fachmann erkennen, dass andere Arten von computerlesbaren Medien, die für einen Computer zugängliche Daten speichern können, wie z. B. Magnetkassetten, Flash-Speicherkarten, DVDs, Kassetten, Direktzugriffsspeicher (RAM) oder Nur-Lese-Speicher (ROM), ebenfalls in dieser exemplarischen Betriebsumgebung benutzt werden können. 

Damit eine Nutzerinteraktion mit dem Computergerät 100 möglich ist, steht die Eingabevorrichtung 190 stellvertretend für eine Vielzahl von Eingabemechanismen, wie etwa ein Mikrofon für Spracheingabe, einen berührungsempfindlichen Bildschirm für Gesten oder grafische Eingaben, eine Tastatur, eine Maus, Bewegungseingaben, Spracheingaben usw. Die Ausgabevorrichtung 170 steht ebenfalls für eine oder mehrere verschiedene Ausgabemechanismen, die dem Fachmann bekannt sind. Gebräuchlich sind beispielsweise Video- oder Audioausgabegeräte, die an Displays oder Lautsprecher angeschlossen werden oder diese enthalten können. Daneben können die Video- und die Audioausgabegeräte auch spezielle Prozessoren für die verbesserte Leistung dieser speziellen Funktionen enthalten. In einigen Fällen ermöglichen multimodale Systeme einem Nutzer, verschiedene Eingabetypen zur Kommunikation mit dem Computergerät 100 zu verwenden. Die Kommunikationsschnittstelle 180 regelt und verwaltet allgemein die Nutzereingaben und die Systemausgaben. Es gibt keine Beschränkung für die offenbarten Verfahren und Geräte, die auf irgendeiner Hardware-Anordnung laufen, weshalb die grundlegenden Merkmale im Zuge der Entwicklung leicht durch verbesserte Hardware- oder Firmware-Anordnungen ersetzt werden können. 

Zur besseren Veranschaulichung wird die beispielhafte Ausführungsform des Systems mit einzelnen Funktionsblöcken (einschließlich als "Prozessor" bezeichneter Funktionsblöcke) dargestellt. Die Funktionen, für die diese Blöcke stehen, können durch die Verwendung von gemeinsam genutzter oder dedizierter Hardware bereitgestellt werden, einschließlich, aber nicht beschränkt auf Hardware, die Software ausführen kann. Beispielsweise können die Funktionen eines oder mehrerer Prozessoren gemäß FIG. 1 durch einen gemeinsam genutzten Prozessor oder durch mehrere Prozessoren bereitgestellt werden. (Die Verwendung des Begriffs "Prozessor" ist nicht so auszulegen, dass sie sich ausschließlich auf Hardware bezieht, die Software ausführen kann.) Beispielhafte Ausführungsformen können umfassen: Mikroprozessor- und/oder Digitalsignalprozessor(DSP)-Hardware, Nur-Lese-Speicher (ROM) zur Speicherung von Software, die die nachstehend beschriebenen Operationen ausführt, und Direktzugriffsspeicher (RAM) zur Speicherung von Ergebnissen. Sehr hoch integrierte Hardware-Ausführungsformen (VLSI) sowie kundenspezifische VLSI-Schaltungen in Kombination mit einer Universal-DSP-Schaltung können ebenfalls bereitgestellt werden. 

Die logischen Operationen der verschiedenen Ausführungsformen können umgesetzt werden als: (1) eine Sequenz computerimplementierter Schritte, Operationen oder Verfahren, die in einer programmierbaren Schaltung auf einem Universalcomputer laufen, (2) eine Sequenz computerimplementierter Schritte, Operationen oder Verfahren, die in einer programmierbaren Schaltung mit spezifischem Verwendungszweck laufen, und/oder (3) miteinander verbundene Maschinenmodule oder Programmmaschinen innerhalb der programmierbaren Schaltungen. 

Das vorliegende System und das vorliegende Verfahren sind besonders nützlich für die Fernsteuerung eines Geräts mit einem oder mehreren Menüs über eine Fernberührungsschnittstelle, die mindestens einen unstrukturierten primären Eingabebereich aufweist. Ein Nutzer kann über eine Berührungsschnittstelle Eingaben vornehmen, ohne die Schnittstelle ansehen zu müssen, und dennoch die erwünschte Reaktion des ferngesteuerten Geräts erzielen. Der primäre Eingabebereich der Berührungsschnittstelle kann eine Hintergrundanzeige wie bei einem typischen Touchscreen aufweisen oder nicht; der primäre Eingabebereich der Berührungsschnittstelle sollte jedoch unstrukturiert sein. Mit anderen Worten sollte in bevorzugten Ausführungsformen der primäre Eingabebereich der Berührungsschnittstelle keine unabhängig auswählbaren Elemente, Tasten, Symbole oder dergleichen aufweisen. Da die Berührungsschnittstelle unstrukturiert ist, muss der Nutzer keine auswählbaren Tasten identifizieren. Stattdessen kann er eine Geste in die Schnittstelle eingeben und beobachten, wie das Gerät reagiert. In einigen Ausführungsformen liefert das System keine andere visuelle Bestätigung. 

FIG. 2 zeigt eine beispielhafte Ausführungsform einer Fernbedienung. Dargestellt ist eine Fernbedienung 200, die eine Anwendung oder eine andere Softwareroutine ausführt, die die Schnittstelle bereitstellt. Auch wenn in der dargestellten Ausführungsform eine Fernbedienung 200 mit einer Touchscreen-Schnittstelle 202 gezeigt ist, kann es sich bei der Schnittstelle um eine beliebige berührungsempfindliche Schnittstelle handeln, wie z. B. ein Touchpad mit kapazitivem Sensor. Ferner kann die Fernbedienung selbst ein dediziertes Remote-Gerät oder ein tragbares elektronisches Gerät mit anderen Funktionen sein, wie etwa ein Smartphone oder ein tragbares Musikwiedergabegerät oder ein PDA. 

Die berührungsempfindliche Schnittstelle 202 umfasst einen primären berührungsempfindlichen Bereich 204, der die Mehrzahl der Berührungseingaben der Nutzer empfangen kann. In der dargestellten Ausführungsform umfasst die berührungsempfindliche Schnittstelle noch weitere berührungsempfindliche Bereiche, darunter einen Menübereich 206, eine Navigationsleiste 207, eine Registerkartenleiste 208 und eine Statusleiste 209.  

Der primäre berührungsempfindliche Bereich 204 ist ein unstrukturierter Bereich, der keine individuell auswählbaren Elemente wie Tasten oder Symbole aufweist. Da der Bereich 204 unstrukturiert ist, müssen auch keine auswählbaren Elemente ausgewählt oder ihre versehentliche Auswahl vermieden werden, sodass der primäre berührungsempfindliche Bereich besonders geeignet ist, um Eingaben in die Fernbedienung zu machen, ohne die Fernbedienung selbst ansehen zu müssen. Stattdessen kann der Nutzer für Rückmeldungen das ferngesteuerte Gerät ansehen. 

Beginnend mit der Navigationsleiste 207 werden zwei unabhängig auswählbare Tasten angezeigt. Indem der Nutzer die Zurücktaste 226 auswählt, die hier "Einstellungen" heißt, weil in dieser exemplarischen Darstellung ein Nutzer zum Einstellungsmenü zurückkehren kann, kann er zum vorherigen Bildschirm zurückkehren. Je nach Name des Bildschirms, zu dem der Nutzer bei Auswahl der Taste zurückkehrt, kann sich die Bezeichnung der Taste ändern. Die Taste 224 fungiert als Vorwärtstaste, bringt den Nutzer aber in den meisten Fällen zu einem Bildschirm "Aktueller Titel", der angezeigt wird, wenn das ferngesteuerte Gerät Audio- oder Videomaterial wiedergibt. Hier und für das ganze Dokument gilt, dass zwar viele Tasten der Remote-Schnittstelle mit einem spezifischen Namen angegeben sind, dies aber nicht einschränkend sein soll. 

Der gesamte Menübereich 206 ist ein berührungsempfindlicher Bereich, der Eingaben erfasst, um zum vorherigen Menü zurückzukehren (durch Empfangen eines Antippens im Menübereich) oder um zum Menü der obersten Ebene zurückzukehren (durch Empfangen und Erkennen eines Drückens und Gedrückthaltens). In der dargestellten Ausführungsform sind zwei weitere Tasten vorhanden. Die Tastaturtaste 222 und die Informationstaste 220 können angezeigt werden, wenn sie benötigt werden, und ausgeblendet werden, wenn sie nicht benötigt werden. Wenn z. B. auf der Nutzerschnittstelle des ferngesteuerten Geräts eine Tastatur vorhanden ist, kann die Tastaturtaste 222 erscheinen. Die Auswahl der Tastaturtaste 222 kann bewirken, dass eine Tastatur auf der Remote-Schnittstelle erscheint, um das Eintippen in die Schnittstelle des ferngesteuerten Geräts zu erleichtern. Ähnlich kann die Informationstaste 220 angezeigt werden, wenn ein Element auf der Schnittstelle des ferngesteuerten Geräts angezeigt wird, für das Informationen verfügbar sind. 

Die Tasten 220 und 222 befinden sich am äußeren Rand des Menübereichs 206 und des Bildschirms 202 im Allgemeinen. Die Anordnung der Tasten 220 und 222 in einer Ecke der Schnittstelle hilft, eine versehentliche Auswahl zu vermeiden, weil davon ausgegangen wird, dass ein Nutzer selten versehentlich eine der Ecken des Geräts berührt. 

In einigen Ausführungsformen kann das Remote-Gerät 200 ein Mobiltelefon, ein Smartphone, ein tragbarer Multimedia-Player, ein PDA oder ein anderes tragbares Computergerät sein, das mehrere verschiedene Funktionen ausführen kann. In diesen Ausführungsformen kann eine Registerkartenleiste 208 nützlich sein, um zwischen anderen Funktionen des Remote-Geräts zu navigieren. Die Registerkartenleiste 208 kann ein strukturierter berührungsempfindlicher Bereich mit hierfür auswählbaren Tasten sein. Zum Beispiel könnte das Remote-Gerät 200 über die Taste 218 angewiesen werden, zum Albenmenü zu wechseln, oder über die Taste 216, zum Künstlermenü zu wechseln, oder über die Taste 212, zu einem Suchbildschirm zu wechseln. Die Taste 210 könnte zusätzliche Optionen anbieten. Die Remote-Taste 214 könnte das Remote-Gerät wieder auf die Remote-Schnittstelle zurücksetzen. 

In einigen Ausführungsformen kann einer oder können alle der Bereiche 206, 207, 208 und 209 als Teil der Remote-Schnittstellen fehlen. In einigen anderen Ausführungsformen können die Bereiche 206, 207, 208 und 209 Eingaben in verschiedenen Kontexten ignorieren, um eine versehentliche Auswahl zu vermeiden. So können beispielsweise, wenn das Remote-Gerät im Wesentlichen horizontal gehalten wird, alle individuell auswählbaren Eingaben als nicht auswählbar eingestuft werden und wenn es im Wesentlichen vertikal gehalten wird, zur Auswahl aktiv sein. 

In einigen Ausführungsformen ist es zur Vermeidung einer versehentlichen Auswahl erforderlich, dass eine Auswahlhandlung innerhalb des individuell auswählbaren Bereichs beginnt und endet. Um beispielsweise den Menübereich zu aktivieren, muss die Berührung innerhalb des Menübereichs 206 beginnen und enden. Beginnt oder endet eine Berührung außerhalb des Menübereichs, aber im primären berührungsempfindlichen Bereich 204, kann die Eingabe als Eingabe des Typs betrachtet werden, der üblicherweise im primären berührungsempfindlichen Bereich 204 gemacht und erkannt wird. 

Wie in FIG. 3 dargestellt, empfängt das Berührungsgerät 200 Berührungsereignisse vom Nutzer während ihrer Eingabe mithilfe eines Responder-Berührungsereignismoduls 250, das diese Berührungsereignisse an einen Berührungsereignis-Handler 252 weiterleitet. Der Berührungsereignis-Handler 252 interpretiert die vom Responder-Berührungsereignismodul 250 empfangenen Berührungsereignisse, um Informationen zum Berührungsereignis zu identifizieren. So kann der Berührungsereignis-Handler z. B. die Pixelposition des Berührungsstarts, die Pixelposition des Berührungsendes und die Berührungsbewegung identifizieren. Außerdem kann er die Dauer des Berührungsereignisses interpretieren. Der Berührungsereignis-Handler 252 kann interpretieren, ob das Berührungsereignis zu einer Menüeingabe, einer Auswahlhandlung, einer Kontextmenüeingabe oder einer Startmenüeingabe geführt hat. Diese Informationen werden zu Paketen formatiert, durch das Touch-Packet-Verschlüsselungs- und -Formatierungsmodul 254 verschlüsselt und durch den TCP-Client 256 an das ferngesteuerte Gerät 300 geschickt.  

Auch wenn in FIG. 3 ein TCP-Client 256 zur Übertragung von Daten von der Fernbedienung 200 zum ferngesteuerten Gerät 300 dargestellt ist, kann ein beliebiges Protokoll verwendet werden, um Daten vom Gerät 200 zum Gerät 300 zu senden. In dieser Ausführungsform wird jedoch wegen seiner Geschwindigkeitsvorteile von TCP ausgegangen. TCP kann so konfiguriert werden, dass es im Wesentlichen unidirektional arbeitet, ohne dass ein Handshake oder eine andere unnötige Kommunikation erforderlich wäre, die die Latenz bei der Übertragung von Daten von der Fernbedienung zum ferngesteuerten Gerät erhöhen kann. Es versteht sich, dass jede Art von Technologie, sei es eine direkte Verbindung von Gerät zu Gerät oder eine über ein lokales Netzwerk, eine relativ schnelle und zuverlässige Übermittlung der vom Berührungsgerät 200 gesendeten Informationen erlauben sollte. 

Daneben sollte zum Zwecke einer raschen Übertragung der Befehle vom Berührungsgerät 200 zum ferngesteuerten Gerät 300 die Menge der gesendeten Daten so gering wie möglich gehalten werden. In einigen Ausführungsformen umfasst die übertragene Datenmenge ungefähr 20 bis 50 Bytes pro Paket. Auch wenn die Berührungsschnittstelle des Berührungsgeräts 200 ein vielseitiges Instrument ist, das Daten aufzeichnen und in komplexere Befehle für das Remote-Gerät übertragen kann, so ist Komplexität nicht von Vorteil. Stattdessen werden vom Berührungsgerät 200 einfache Informationen aufgezeichnet und übertragen. 

Im Remote-Kontext ist es wichtig, dass die Befehle schnell vom Remote-Gerät 200 übertragen und vom ferngesteuerten Gerät 300 empfangen werden. In der in FIG. 3 dargestellten Ausführungsform sendet deshalb das Remote-Gerät weitgehend generische Berührungsgerätedaten und überlässt die Interpretation der Daten dem ferngesteuerten Gerät 300. So empfängt beispielsweise der TCP-Server 302 die vom TCP-Client 256 übermittelten Daten, und diese werden vom Modul 304 entschlüsselt. 

Die generischen Berührungsdaten (Berührungsbeginn, -bewegung, -ende, -zeit/-geschwindigkeit) können von einem Interpreter wie dem Berührungsereignis-Interpreter 306 interpretiert werden, der die generischen Berührungsereignisdaten in Ereignisse interpretiert, die vom ferngesteuerten Gerät 300 verstanden und verwendet werden können. In diesem Beispiel können die vom Remote-Gerät 200 erfassten Informationen wie Berührungsbeginn, -bewegung und -ende als Ereignisse interpretiert werden: links, rechts, oben, unten, nach links wischen, nach rechts wischen, nach oben wischen, nach unten wischen oder generisch als Berührungsbeginn, -bewegung oder -ende. 

Ebenfalls dargestellt ist ein Ereignis-Handler 308, der Eingaben empfangen und an eine Steuerung für eine grafische Benutzerschnittstelle (UI-Controller) weiterleiten kann. Wie dargestellt, kann der Ereignis-Handler 308 Ereignisse von einer Standardfernbedienung 330 empfangen, die vom Human Interface Event Manager 310 empfangen und interpretiert wurden, und er kann auch Ereignisse vom Berührungsgerät 200 empfangen, die vom Berührungsereignis-Interpreter 306 interpretiert wurden. 

Jede grafische Benutzerschnittstelle des ferngesteuerten Geräts wird von einem oder mehreren UI-Controllern gesteuert. Wie in FIG. 3 veranschaulicht, wird der UI-Controller als fokussierter UI-Controller 312 bezeichnet, weil er derjenige UI-Controller ist, der der gerade vom ferngesteuerten Gerät angezeigten GUI zugeordnet ist. Während es viele UI-Controller geben kann, ist der fokussierte UI-Controller derjenige, der dem gerade angezeigten GUI-Bildschirm zugeordnet ist. 

Der fokussierte UI-Controller 312 empfängt Ereignisse vom Ereignis-Handler 308. Der fokussierte UI-Controller 312 empfängt alle möglichen Eingaben und reagiert auf jede Eingabe, für deren Annahme der fokussierte UI-Controller konfiguriert ist. 

In FIG. 4 bis 6 wird veranschaulicht, wie verschiedene fokussierte UI-Controller mit demselben Satz von Berührungsereignissen umgehen. Bei 340 gibt ein Nutzer eine Geste ein, die an einem beliebigen Punkt X der Berührungsschnittstelle beginnt und am Punkt X-10 links von X endet, wobei die Berührungsgeste eine gewisse Geschwindigkeit hat. Die Berührungseingabe wird wie oben beschrieben empfangen, verarbeitet und an das ferngesteuerte Gerät gesendet. Am ferngesteuerten Gerät empfängt der Berührungsereignis-Interpreter 346 die Daten, die die Berührungseingabe beschreiben, und kann die Daten in Ereignisse 342 interpretieren, die vom ferngesteuerten Gerät erkannt werden können. In diesem Beispiel gibt der Berührungsereignis-Interpreter ein Ereignis "nach links wischen" und ein Ereignis "links" aus. 

Der Ereignis-Handler 348 leitet das Ereignis "links" und das Ereignis "nach links wischen" an den UI-Controller weiter, der gerade "im Fokus" ist. Ein UI-Controller ist dann "im Fokus", wenn er zumindest einen Teil des gerade angezeigten Bildschirms der Benutzerschnittstelle steuert. Der fokussierte UI-Controller empfängt Ereignisse vom Ereignis-Handler 348. In FIG. 4 bis 6 gibt es drei verschiedene fokussierte UI-Controller. Ein Filmmenü-fokussierter UI-Controller 315, ein Diashow-fokussierter UI-Controller 317 und ein Medienwiedergabe-fokussierter UI-Controller 319. In FIG. 4 empfängt der Filmmenü-fokussierte UI-Controller 315 die Berührungsereignisse 342 vom Ereignis-Handler 348 und erkennt das Ereignis "nach links wischen" bei 344 und veranlasst die UI, scheinbar durch die Auswahl zu scrollen und das Scrollen bei 350 zu beenden. In FIG. 5 ist der Diashow-fokussierte UI-Controller 317 der aktive Controller und erkennt das Ereignis "links" bei 352, was dazu führt, dass die Benutzerschnittstelle bei 354 zur vorangehenden Folie in der Diashow zurückkehrt. In FIG. 6 ist der Medienwiedergabe-fokussierte UI-Controller 319 der aktive Controller und erkennt das Ereignis "nach links wischen" bei 356, was dazu führt, dass die Benutzerschnittstelle bei 358 zur vorangehenden Folie in der Diashow zurückkehrt. In FIG. 4 bis 6 wird dargestellt, wie dieselbe Berührungseingabe als jeweils anderes Ereignis erkannt werden kann und wie die fokussierten UI-Controller eine Auswahl aus den Ereignissen treffen, um eine Aktion in der Benutzerschnittstelle auszulösen. 

Auch wenn in den in FIG. 4 bis 6 dargestellten Beispielen die fokussierten UI-Controller nur eines der beiden Eingabeereignisse erkennen, könnte der fokussierte UI-Controller ebenso mehrere Ereignisse als an Aktionen gebunden erkennen. So könnte der Filmmenü-Controller sowohl das Ereignis "Wischen" als auch das Ereignis "links" erkennen, für einen solchen Fall aber so konfiguriert werden, dass er bei Erkennung mehrerer Ereignisse ein Ereignis gegenüber einem anderen priorisiert. 

An dieser Stelle ist es sinnvoll zu vergleichen, wie die gerade beschriebene Technologie im Vergleich zu einer Standardfernbedienung 330 gemäß FIG. 3 funktioniert. Die Fernbedienung 200 kann als Universalfernbedienung ausgelegt sein, die unabhängig von dem Gerät, mit dem sie kommuniziert, dieselben Daten ausgeben kann. Es handelt sich um eine Fernbedienung mit unstrukturierter Schnittstelle, sodass beliebige Gesten oder Befehle eingegeben werden können. Im Gegensatz dazu ist die Fernbedienung 330 spezifisch für das ferngesteuerte Gerät ausgelegt. Für die vorliegenden Zwecke wird von einer einfachen Fernbedienung mit nur einer Menütaste, nach oben, nach unten, nach links und nach rechts ausgegangen. Das ferngesteuerte Gerät ist so konfiguriert, dass es Eingaben von der Fernbedienung 330 akzeptiert und jede Eingabe mit einer Funktion im ferngesteuerten Gerät verknüpft ist. Selbst eine herkömmliche Universalfernbedienung ist so programmiert, dass sie genauso wie die Fernbedienung 330 funktioniert und für das ferngesteuerte Gerät spezifische Befehle ausgibt. 

Eingaben des Berührungsgeräts 200 werden vom Berührungsereignis-Interpreter 306 empfangen, der die Berührungsdaten in Berührungsereignisse uminterpretieren kann, die vom Remote-Gerät potenziell verarbeitet werden können. Der Ereignis-Handler 308 leitet die Ereignisse an den fokussierten UI-Controller 312 weiter. Eine Eingabe von der Standardfernbedienung 330 kann vom Human Interface Event Manager 310 empfangen und in ein Ereignis uminterpretiert werden, das vom Berührungsgerät verwendet werden kann. Genau wie bei den vom Berührungsgerät 200 empfangenen Ereignissen kann der Ereignis-Handler 308 den Befehl von der Standardfernbedienung 330 an den fokussierten UI-Controller 312 weiterleiten. 

In einigen Ausführungsformen kann der fokussierte UI-Controller 312 so konfiguriert sein, dass er zusätzliche Eingaben über das hinaus akzeptiert, was bei Verwendung der Standardfernbedienung 330 möglich ist. In solchen Ausführungsformen kann der fokussierte UI-Controller 312 unter den Eingaben, die er akzeptieren möchte, auswählen und ist so konfiguriert, dass er diese Auswahl trifft. Beispielsweise kann der fokussierte UI-Controller 312 die Information erhalten, dass er Ereignisse vom Berührungsgerät 200 empfängt, und diese Befehle als höherrangig gegenüber den von der Standardfernbedienung 330 eingehenden einfachen Eingaben wie "links" einstufen. Würde der fokussierte UI-Controller 312 in einem solchen Fall Ereignisse vom Berührungsgerät 200 empfangen, müsste er zwischen dem einfachen Ereignis und dem höherrangigen Ereignis wie einem Wischen wählen, weil beide möglich sind. Der fokussierte UI-Controller 312 kann lernen, dass die Daten vom Berührungsgerät 200 stammen, und kann wählen, auf der Grundlage des Ereignisses "Wischen" einen Film vorzuspulen, anstatt auf der Grundlage des Ereignisses "links" ein Filmkapitel zu überspringen. 

So wie der fokussierte UI-Controller 312 konfiguriert werden kann, um verschiedene Befehle zu akzeptieren, je nachdem von welchem Gerät er die Befehle empfängt, kann er die Befehle auch auf der Grundlage des Kontexts der gerade angezeigten Schnittstelle interpretieren. Wie vorstehend erwähnt, ist jeder fokussierte UI-Controller für einen spezifischen Kontext zuständig. Es können viele weitere UI-Controller vorhanden sein, die jeweils für ihre eigene Funktion zuständig sind. Da jeder UI-Controller für einen anderen Teil der Benutzerschnittstelle oder einen anderen Bildschirm mit einem anderen Kontext zuständig ist, kann jeder fokussierte UI-Controller trotz gleicher Eingabe andere Funktionen ausführen. 

Wie oben erörtert, kann ein Nutzer verschiedene Eingaben im primären berührungsempfindlichen Bereich 204 vornehmen, doch das Ergebnis der Eingaben kann je nach Kontext der Eingabe variieren. Der fokussierte UI-Controller, der für eine bestimmte GUI spezifisch ist, kann so programmiert werden, dass Eingaben basierend auf Elementen oder Merkmalen seines Kontexts interpretiert werden. Beispielsweise kann es bei der Fernsteuerung einer Multimedia-Anwendung, die auf einem Remote-Gerät läuft, mindestens einen Menükontext (FIG. 7) und einen Medienwiedergabekontext (FIG. 8) geben, die jeweils ihren eigenen fokussierten UI-Controller haben, der ihr Verhalten regelt. Auch wenn die Fernsteuerung einer Multimedia-Anwendung als beispielhafte Ausführungsform erörtert wird, können viele andere Geräte gemäß den hier erörterten Konzepten gesteuert werden, einschließlich, aber nicht beschränkt auf Fernseher, Kabelboxen, digitale Videoaufzeichnungen oder Abspielgeräte von digitalen Disks (DVD, CD, HD-DVD, Blu-Ray usw.). 

In Bezug auf das Beispiel einer Multimedia-Anwendung, die auf einem Remote-Gerät ausgeführt wird, bedeutet das: in einem Menükontext kann ein Nutzer Medien potenziell nach Titel, Künstler, Medientyp, Wiedergabelisten, Albumnamen und Genre durchsuchen (natürlich eignen sich einige dieser Kategorien zum Durchsuchen von Medien für bestimmte Medientypen, wie z. B. Filme oder Musiktitel, besser und für andere weniger). In FIG. 7 kann ein Nutzer die Menüschnittstelle nach Filmtiteln durchsuchen, die in einer Liste angeordnet sind. Im Menükontext können im primären berührungsempfindlichen Bereich verschiedene Eingaben vorgenommen werden, um im Menü zu navigieren und eine Auswahl zu treffen. Beispielsweise kann ein Nutzer, wie in der folgenden Tabelle gezeigt, in der Benutzerschnittstelle in eine gewünschte Richtung wischen, was zu einer Bildlaufoperation führen kann. Wie aus dem Stand der Technik bekannt ist, können die Geschwindigkeit der Geste und die Bildlaufoperation in Beziehung gesetzt werden. Beispielsweise kann eine schnellere Wischbewegung zu einer schnelleren Bildlaufoperation und/oder einer längeren Bildlaufdauer führen. 

Darüber hinaus kann der primäre berührungsempfindliche Bereich auch Tippgesten empfangen, mit denen ein Element ausgewählt werden kann. Weiter kann das Ziehen eines Fingers des Nutzers über den primären berührungsempfindlichen Bereich 204 ein ausgewähltes oder markiertes Element bewegen. 

TABELLE 1 

Menü-Navigationskontext

Berührungsaktion

Ergebnis

Ziehen in die gewünschte Richtung mit einem Finger 

Auswahl verschieben 

Wischen in die gewünschte Richtung mit einem Finger 

Durch die Auswahl scrollen und zum Ende langsamer werden 

Tippen im Hauptauswahlbereich mit einem Finger 

Menüpunkt wählen 

Viele der gleichen Aktionen können in anderen Kontexten zu anderen Ergebnissen oder Aktionen führen, die auf oder von dem ferngesteuerten Gerät ausgeführt werden. So verursachen, wie in der nachstehenden Tabelle zu sehen ist, einige der oben beschriebenen Aktionen andere Ergebnisse in dem in FIG. 8 dargestellten Kontext der Medienwiedergabe. Durch Tippen mit einem Finger im primären berührungsempfindlichen Bereich kann im Wiedergabekontext - anders als im Menükontext, wo dies zu einer Auswahl führt - eine Mediendatei abgespielt oder angehalten werden. In ähnlicher Weise kann eine Ziehaktion zu einer Shuttle-Transportoperation des Shuttles 367 führen. Wischen nach rechts und links kann zu einem Schnellvorlauf nach rechts bzw. links führen, während im Menükontext dadurch gescrollt wird. Ein Wischen nach oben kann bewirken, dass eine Informationsanzeige 365 verschiedene Informationen durchläuft, die sich in einem Media Player möglicherweise anzeigen lassen. Ein Wischen nach unten kann ein Kapitelauswahlmenü anzeigen. 

TABELLE 2 

Medienwiedergabekontext

Berührungsaktion

Ergebnis

Tippen im Auswahlbereich mit einem Finger 

Umschalten Wiedergabe/Pause 

Ziehen nach links/rechts mit einem Finger 

Shuttle-Transport nach links/rechts 

Nach links wischen mit einem Finger 

10 Sekunden zurückspringen 

Nach rechts wischen mit einem Finger 

10 Sekunden vorwärtsspringen 

Nach oben wischen mit einem Finger 

Anzeige der Zyklusinformationen 

Nach unten wischen mit einem Finger 

Kapitelauswahlmenü anzeigen 

Andere Eingaben müssen nicht kontextabhängig sein. So führt ein Tippen im Menübereich 206 zum vorherigen Menübildschirm zurück. Ein Gedrückthalten im Menübereich bewirkt die Rückkehr zum Hauptmenü. Auch einige Eingaben im primären berührungsempfindlichen Bereich 204 führen immer zu der gleichen Aktion - ein Drücken und Gedrückthalten mit zwei Fingern im primären berührungsempfindlichen Bereich 204 führt zum Menü für den vom Gerät gerade angezeigten Kontext zurück. 

TABELLE 3 

Beliebiger Kontext

Berührungsaktion

Ergebnis

Tippen im Menübereich mit einem Finger 

Menü 

Drücken und Gedrückthalten im Menübereich mit einem Finger 

Hauptmenü 

Drücken und Gedrückthalten mit zwei Fingern im Hauptauswahlbereich 

Kontextmenü 

Zusätzlich zu den verschiedenen oben beschriebenen Berührungseingaben sind noch viele weitere Eingaben möglich. Nichts in der bisherigen Beschreibung sollte als Einschränkung der verfügbaren Berührungseingaben oder Gesten verstanden werden, die mit der beschriebenen Technologie verwendet werden können. Beispielsweise werden zusätzlich zu den oben beschriebenen Ein- oder Zwei-Finger-Eingaben auch Drei- oder Vier-Finger-Eingaben in Betracht gezogen. Darüber hinaus können auch komplexere Gesten wie das Spreizen von zwei oder mehr Fingern und die Zuordnung bestimmter Eingaben zu einzelnen Fingern nützlich sein. Derartige Gesten sind im Stand der Technik bereits bekannt, so das Drehen eines Fingers um den anderen, um ein Bildschirmbild zu drehen, oder das Bewegen von zwei Fingern voneinander weg oder aufeinander zu, was zu einem Heraus- oder Hineinzoomen führen kann. Viele andere werden im Rahmen des Fachwissens berücksichtigt. 

Auch soll der Begriff Finger, auf den oben und in der gesamten Beschreibung Bezug genommen wird, nicht einschränkend sein. Während sich in einigen Ausführungsformen die Angabe "ein Finger" auf den Finger einer menschlichen Hand bezieht, kann sie sich in anderen Ausführungsformen auf alles beziehen, was von einer kapazitiven Vorrichtung erfasst werden kann. In einigen Ausführungsformen kann sie sich auch auf einen Stift oder ein anderes Objekt zur Eingabe in eine Anzeige-Eingabevorrichtung beziehen. 

Nachdem der fokussierte UI-Controller eine Eingabe akzeptiert hat, wirkt sich dies auf die Benutzerschnittstelle des ferngesteuerten Geräts aus. In vielen Fällen kann dies die erste Rückmeldung an den Nutzer sein, dass er den richtigen Befehl erteilt hat. Eine solche Rückkopplungsschleife erhöht die Reaktionsbereitschaft des Systems und ermöglicht eine weniger komplizierte Remote-Schnittstelle. In anderen Ausführungsformen können aber auch andere Arten von Rückmeldungen geliefert werden. Beispielsweise kann der Nutzer eine akustische Rückmeldung erhalten, damit er zumindest weiß, dass ein Befehl erteilt wurde. Alternativ kann die Fernbedienung vibrieren oder jede andere gewünschte Art von Rückmeldung liefern. Die Rückmeldung kann auch befehlsspezifisch sein, ein anderes Geräusch oder eine andere Vibration je nach Befehl ist denkbar. 

In einigen Ausführungsformen verfügt das ferngesteuerte Gerät möglicherweise nicht über einen Ereignis-Interpreter. In diesen Ausführungsformen würde die Fernbedienung die Daten, die Berührungseingaben darstellen, an das ferngesteuerte Gerät senden, und der fokussierte UI-Controller kann konfiguriert werden, um die Daten zu interpretieren. 

In einigen Ausführungsformen kann es nützlich sein, der Fernbedienung zu ermöglichen, Informationen zum Ändern von Menüs oder Anzeigen des Remote-Geräts zu erhalten. In solchen Ausführungsformen kann ein separater Kommunikationskanal geöffnet werden, beispielsweise unter Verwendung eines Hypertext-Übertragungsprotokolls (HTTP) zum Übertragen von Informationen zwischen den Geräten. Um die Remote-Leistung aufrechtzuerhalten, könnte die Kommunikation überwiegend nur in eine Richtung ablaufen, um eine schnellere Geschwindigkeit zu erzielen, und nur bei Bedarf eine bidirektionale Kommunikation verwendet werden. Obwohl der Großteil der Kommunikation von der Fernbedienung zum ferngesteuerten Gerät über TCP übertragen wird, könnte beispielsweise HTTP oder DAAP verwendet werden, um die Fernbedienung über Sonderfälle zu informieren, z. B. wenn zusätzliche Informationen verfügbar sind oder auf dem ferngesteuerten Gerät eine Tastatur angezeigt wird. In solchen Fällen könnte beispielsweise auf der Fernbedienung eine Tastatur angezeigt werden, und die Tastatureingaben könnten mittels HTTP übertragen werden. Ähnlich kann, wenn Informationen wie die in FIG. 8 dargestellten verfügbar sind, auf der Fernbedienung eine Informationstaste angezeigt werden, um das Informationsfenster 365 aufzurufen. 

FIG. 9 zeigt das Verfahren zum Steuern des Remote-Geräts. In Schritt 418 stellt eine Remote-Anwendung einen unstrukturierten berührungsempfindlichen Bereich zum Empfangen von Berührungseingaben von einem Nutzer bereit. Die Berührungseingaben werden in Schritt 422 empfangen und mindestens in Berührungsstart-, Berührungsende-, Bewegungs- und Dauerdaten uminterpretiert. In Schritt 424 werden die Daten formatiert und an das ferngesteuerte Gerät gesendet. 

In Schritt 426 interpretiert das ferngesteuerte Gerät die empfangenen Daten in Kenntnis des Kontexts des gerade von ihm angezeigten Bildschirms. Abhängig von den empfangenen Eingaben und dem Kontext der aktuellen Anzeige interpretiert das ferngesteuerte Gerät die von der Fernbedienung empfangenen Daten und akzeptiert den Befehl in Schritt 428, wodurch es den Befehl ausführt und das Ergebnis in Schritt 430 anzeigt. 

Auch wenn in der obigen Beschreibung ein Medienwiedergabegerät mit zugehöriger Software verwendet wird, versteht es sich, dass die Technologie gleichermaßen auf andere ferngesteuerte Geräte wie Fernseher, DVR, DVD-Player, Blu-ray, Kabelboxen usw. anwendbar ist. Das ferngesteuerte Gerät kann beispielsweise so programmiert werden, dass es generische Touchscreen-Schnittstellendaten akzeptiert, interpretiert und auf diese Eingaben reagiert. Alternativ kann die Fernbedienung selbst mit Anweisungen ausgestattet werden, wie sie mit nahezu jedem ferngesteuerten Gerät kommunizieren kann. Solange entweder das Remote-Gerät oder das ferngesteuerte Gerät die Berührungsdaten basierend auf dem Kontext dessen interpretieren kann, was aktuell angezeigt wird oder vom Remote-Gerät angezeigt werden soll, können die Prinzipien der beschriebenen Technologie angewendet werden. 

In einigen Ausführungsformen sind weniger oder stärker berührungsempfindliche Bereiche möglich. Zusätzliche berührungsempfindliche Bereiche mit strukturierten Schnittstellen erhöhen jedoch die Wahrscheinlichkeit, dass versehentlich Befehle in die Fernbedienung eingegeben werden. Die besten Benutzerschnittstellen bieten insgesamt ein Nutzererlebnis, bei dem der Nutzer selten auf die Fernbedienung schauen muss, um eine Auswahl zu treffen. Wenn der Nutzer in einer Berührungsumgebung, in der sich das gesamte Gerät für den Nutzer ähnlich anfühlt, nicht auf die Fernbedienung schaut, versteht es sich jedoch, dass versehentliche Eingaben möglich und sogar wahrscheinlich sind, wenn zu viele individuell auswählbare Elemente verfügbar sind. 

Es gibt verschiedene Methoden, um versehentliche Eingaben zu vermeiden. Eine davon verwendet, wie oben beschrieben, ein Beschleunigungsmessgerät, um die Geräteorientierung zu bestimmen und basierend auf dieser Orientierung festzustellen, welche Art von Befehl der Nutzer einzugeben versucht. Wenn das Gerät waagerecht gehalten wird, schaut der Nutzer wahrscheinlich nicht auf das Gerät, und es ist wahrscheinlich, dass das ferngesteuerte Gerät mit Gesten gesteuert werden soll. Wenn das Gerät jedoch eher vertikal oder schräg gehalten wird, damit der Nutzer den Bildschirm sehen kann, schaut sich der Nutzer wahrscheinlich den Bildschirm an, und Eingaben über die Tasten der strukturierten Benutzerschnittstelle sind wahrscheinlicher. Eine weitere Alternative ist in FIG. 5 dargestellt, wobei das Remote-Gerät 500 in einer Querformatorientierung gedreht wird. In dieser Ausrichtung ist die gesamte Schnittstelle unstrukturiert, und nur der primäre Auswahlbereich 502 und der Menüauswahlbereich 504 sind vorhanden. In dieser Ausführungsform würden versehentliche Eingaben vermieden, indem der strukturierte Teil der Schnittstelle verschwindet, wenn der Nutzer nur die unstrukturierte Schnittstelle verwenden möchte, um Berührungsgesten zur Steuerung des ferngesteuerten Geräts einzugeben. Wenn das Gerät in das Hochformat gedreht wird, kann eine strukturierte Schnittstelle verfügbar werden. Eine weitere Möglichkeit, unerwünschte Eingaben zu reduzieren, besteht darin, den Anzeigebereich des Touchscreens unabhängig von der Ausrichtung des Geräts vollständig auszuschalten. In diesen Ausführungsformen wäre nur eine unstrukturierte Eingabe in den primären Auswahlbereich und den Menübereich verfügbar. Würde der Nutzer eine der strukturierten Optionen wünschen, könnte der Bildschirm durch einen Betätigungsmechanismus wie eine Hardwaretaste, ein Schütteln des Geräts oder eine Berührungsgeste wieder eingeschaltet werden. 

Außerdem können, wie oben beschrieben, versehentliche Eingaben vermieden werden, indem die Berührungsschnittstelle so konfiguriert wird, dass jede Eingabe, die sich in eine strukturierte Eingabe hinein oder aus einer solchen heraus bewegt, als Eingabe in die unstrukturierte Schnittstelle akzeptiert wird. Auf diese Weise werden nur absichtliche Auswahlhandlungen registriert. 

Unter den Schutzumfang der vorliegenden Erfindung fallende Ausführungsformen können auch computerlesbare Medien als Träger oder Speicherort für computerausführbare Anweisungen oder Datenstrukturen sein. Solche computerlesbaren Medien können alle verfügbaren Medien sein, auf die von einem Universal- oder Spezialcomputer zugegriffen werden kann. Beispielhaft und nicht einschränkend können solche physischen computerlesbaren Medien RAM, ROM, EEPROM, CD-ROM oder einen anderen optischen Plattenspeicher, einen Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder ein beliebiges anderes Medium umfassen, das verwendet werden kann, um gewünschte Programmcodemittel in Form von computerausführbaren Anweisungen oder Datenstrukturen zu tragen oder zu speichern. Wenn Informationen über ein Netzwerk oder eine andere Kommunikationsverbindung (entweder fest verdrahtet, drahtlos oder eine Kombination davon) an einen Computer übertragen oder für diesen bereitgestellt werden, betrachtet der Computer die Verbindung korrekterweise als computerlesbares Medium. Daher wird jede solche Verbindung korrekterweise als computerlesbares Medium bezeichnet. Kombinationen der oben genannten Medien sollten also auch unter die physischen computerlesbaren Medien fallen. 

Computerausführbare Anweisungen umfassen beispielsweise Anweisungen und Daten, die bewirken, dass ein Universalcomputer, ein Spezialcomputer oder eine Spezialverarbeitungsvorrichtung eine bestimmte Funktion oder Gruppe von Funktionen ausführt. Computerausführbare Anweisungen umfassen auch Programmmodule, die von Computern in eigenständigen oder in Netzwerkumgebungen ausgeführt werden. Im Allgemeinen umfassen Programmmodule Routinen, Programme, Objekte, Komponenten und Datenstrukturen, die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren. Computerausführbare Anweisungen, zugehörige Datenstrukturen und Programmmodule stellen Beispiele der Programmcodemittel zum Ausführen von Schritten der hier offenbarten Verfahren dar. Die bestimmte Abfolge solcher ausführbarer Anweisungen oder der zugehörigen Datenstrukturen steht beispielhaft für entsprechende Handlungen zur Implementierung der in solchen Schritten beschriebenen Funktionen. 

Fachleute werden erkennen, dass weitere Ausführungsformen der Erfindung in Netzwerkcomputerumgebungen mit vielen Arten von Computersystemkonfigurationen ausgeführt werden können, darunter Personal Computer, tragbare Geräte, Multiprozessorsysteme, mikroprozessorbasierte oder programmierbare Unterhaltungselektronik, Netzwerk-PCs, Minicomputer, Großrechner und dergleichen. Ausführungsformen können auch in verteilten Computerumgebungen implementiert werden, in denen Aufgaben von lokalen und entfernten Verarbeitungsgeräten ausgeführt werden, die über ein Kommunikationsnetzwerk (entweder durch festverdrahtete Verbindungen, drahtlose Verbindungen oder durch eine Kombination davon) verbunden sind. In einer verteilten Computerumgebung können sich Programmmodule sowohl in lokalen als auch in entfernten Speichervorrichtungen befinden. 

Die Kommunikation in verschiedenen Stufen des beschriebenen Systems kann über ein lokales Netzwerk, ein Token-Ring-Netzwerk, das Internet, ein Unternehmens-Intranet, drahtlose Signale der 802.11-Serie, ein Glasfasernetz, eine Funk- oder Mikrowellenübertragung usw. erfolgen. Die zugrunde liegende Technologie kann sich zwar ändern, aber die hier beschriebenen Grundprinzipien sind weiterhin anwendbar. 

Die verschiedenen oben beschriebenen Ausführungsformen dienen nur der Veranschaulichung und sollen die Erfindung nicht einschränken. Zum Beispiel können die hier dargestellten Prinzipien auf jedes ferngesteuerte Gerät angewendet werden. Ferner wird der Fachmann erkennen, dass die Kommunikation zwischen der Fernbedienung und dem ferngesteuerten Gerät nicht auf die Kommunikation über ein lokales Netzwerk beschränkt sein muss, sondern auch die Kommunikation über Infrarotkanäle, Bluetooth oder eine andere geeignete Kommunikationsschnittstelle umfassen kann. Fachleute werden ohne Weiteres verschiedene Modifikationen und Änderungen erkennen, die an der vorliegenden Erfindung vorgenommen werden können, ohne den hier veranschaulichten und beschriebenen beispielhaften Ausführungsformen und Anwendungen zu folgen und ohne vom Umfang der vorliegenden Offenbarung abzuweichen. 

Patentansprüche 

Art. 84
R. 43

1. Verfahren zur Fernsteuerung eines Geräts (300), umfassend:

R. 43 (1) a)
Oberbegriff des unabhängigen Anspruchs, soweit angebracht 

Empfangen von Berührungseingabedaten an einem ferngesteuerten Gerät (300) von einer Fernbedienung (200) umfassend einen Touchscreen (202) und eine Prozessoreinheit, wobei die Berührungseingabedaten Informationen einschließlich Positions-, Bewegungs- und Dauer-Eingabeparameter umfassen und wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (Graphical User Interface, GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI, Interpretieren der Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI, um einen für den aktuellen Kontext der GUI passenden Befehl zu bestimmen; und

Aktualisieren der GUI als Reaktion auf den passenden Befehl, dadurch gekennzeichnet, dass das Verfahren außerdem das Senden von Informationen vom ferngesteuerten Gerät (300) über ein bidirektionales Kommunikationsprotokoll zur Fernbedienung (200) umfasst, womit die Fernbedienung informiert wird, zumindest teilweise als Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen.

2. System umfassend:

eine Fernbedienung (200) umfassend:

einen Touchscreen (202), der zum Empfangen von Berührungseingaben konfiguriert ist, 

eine Prozessoreinheit zum Empfangen der elektronischen Signale vom Touchscreen und Übersetzung der Signale in Berührungseingabedaten und 

eine Kommunikationsschnittstelle, die konfiguriert ist zum: 

Senden der Berührungseingabedaten an ein ferngesteuertes Gerät (300), wobei die Daten zumindest Positions-, Bewegungs- und Dauer-Eingabeparameter einschließen, und 

Empfangen von Informationen vom ferngesteuerten Gerät (300) über ein bidirektionales Kommunikationsprotokoll, mit denen die Fernbedienung informiert wird, eine Tastatur anzuzeigen, wobei die Fernbedienung so konfiguriert ist, dass sie zumindest teilweise als Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzeigt, 

ein ferngesteuertes Gerät (300), das konfiguriert ist, eine grafische Benutzerschnittstelle (GUI) in einer Vielzahl von Kontexten zu präsentieren,

wobei das ferngesteuerte Gerät umfasst: 

ein Display zur Anzeige einer grafischen Benutzerschnittstelle (GUI), 

eine Kommunikationsschnittstelle, die konfiguriert ist zum: 

Empfangen der Berührungseingabedaten, wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI, und 

eine Prozessoreinheit, die konfiguriert ist, um die Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI zu interpretieren, um einen für den aktuellen Kontext passenden Befehl zu bestimmen und um die GUI in Reaktion auf den passenden Befehl zu aktualisieren,  

dadurch gekennzeichnet, dass  

die Kommunikationsschnittstelle außerdem konfiguriert ist zum: 

Senden von Informationen über ein bidirektionales Kommunikationsprotokoll, womit die Fernbedienung informiert wird, zumindest teilweise als Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen. 

3. Gerät, konfiguriert über eine Anwendung, die das Gerät veranlasst, als Fernbedienung (200) für ein ferngesteuertes Gerät zu funktionieren, umfassend:

einen Touchscreen (202), der zum Empfangen von Berührungseingaben konfiguriert ist, 

eine Prozessoreinheit, um die elektronischen Signale vom Touchscreen zu empfangen und die Signale in Berührungseingabedaten zu übersetzen, und 

eine Kommunikationsschnittstelle, die konfiguriert ist zum: 

Senden der Berührungseingabedaten zu einem ferngesteuerten Gerät (300), wobei die Daten zumindest Positions-, Bewegungs- und Dauer-Eingabeparameter einschließen und wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI,  

wobei das ferngesteuerte Gerät konfiguriert ist, um die Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI zu interpretieren, um einen für den aktuellen Kontext passenden Befehl zu bestimmen und um die GUI in Reaktion auf den passenden Befehl zu aktualisieren,  

dadurch gekennzeichnet, dass

die Kommunikationsschnittstelle außerdem konfiguriert ist zum:  

Empfangen von Informationen vom ferngesteuerten Gerät (300) über ein bidirektionales Kommunikationsprotokoll, womit die Fernbedienung informiert wird, zumindest teilweise in Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen. 

4. Gerät, konfiguriert über eine Anwendung, die das Gerät dazu veranlasst, als ferngesteuertes Gerät (300) zu funktionieren, das von einer Fernbedienung (200) gesteuert wird, umfassend:

ein Display zur Anzeige einer grafischen Benutzerschnittstelle (GUI), 

eine Kommunikationsschnittstelle, die konfiguriert ist zum: 

Empfangen von Berührungseingabedaten von einer Fernbedienung (200), wobei die Daten zumindest Positions-, Bewegungs- und Dauer-Eingabeparameter einschließen und wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI, und  

eine Prozessoreinheit, die konfiguriert ist, um die Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI zu interpretieren, um einen für den aktuellen Kontext passenden Befehl zu bestimmen und um die GUI in Reaktion auf den passenden Befehl zu aktualisieren, 

dadurch gekennzeichnet, dass

die Kommunikationsschnittstelle außerdem konfiguriert ist zum: 

Senden von Informationen über ein bidirektionales Kommunikationsprotokoll, womit die Fernbedienung informiert wird, zumindest teilweise in Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen. 

5. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch das System nach Anspruch 2 dieses veranlassen, das Verfahren nach Anspruch 1 auszuführen.

6. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch ein Computergerät mit einem Touchscreen, einer Prozessoreinheit zum Empfangen elektronischer Signale vom Touchscreen und einer Kommunikationsschnittstelle

bewirken, dass das Computergerät als Fernbedienung (200) für ein ferngesteuertes Gerät funktioniert,

wobei die Befehle bewirken, dass das Computergerät:  

das Berührungseingabesignal vom Touchscreen in Berührungseingabedaten übersetzt,  

die Berührungseingabedaten an ein ferngesteuertes Gerät (300) sendet, wobei die Daten zumindest Positions-, Bewegungs- und Dauer-Eingabeparameter einschließen und wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI,  

wobei das ferngesteuerte Gerät konfiguriert ist, um die Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI zu interpretieren, um einen für den aktuellen Kontext passenden Befehl zu bestimmen und um die GUI in Reaktion auf den passenden Befehl zu aktualisieren,  

dadurch gekennzeichnet, dass die Befehle ferner bewirken, dass das Computergerät:

Informationen vom ferngesteuerten Gerät (300) über ein bidirektionales Kommunikationsprotokoll empfängt, womit die Fernbedienung informiert wird, zumindest teilweise in Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen. 

7. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch ein Computergerät mit einem Display, einer Prozessoreinheit und einer Kommunikationsschnittstelle

bewirken, dass das Gerät als ferngesteuertes Gerät (300) funktioniert, das von einer Fernbedienung (200) gesteuert wird,

wobei die Befehle bewirken, dass das Computergerät: 

eine grafische Benutzerschnittstelle (GUI) anzeigt, 

Berührungseingabedaten von einer Fernbedienung (200) empfängt, wobei die Daten zumindest Positions-, Bewegungs- und Dauer-Eingabeparameter einschließen und wobei die Berührungseingabedaten vom ferngesteuerten Gerät (300) interpretiert werden können als ein Befehl aus einer Vielzahl möglicher Befehle in einem ersten Kontext einer grafischen Benutzerschnittstelle (GUI) des ferngesteuerten Geräts (300) und als ein anderer Befehl aus der Vielzahl möglicher Befehle in einem zweiten Kontext der GUI,  

die Berührungseingabedaten in Kombination mit einem aktuellen Kontext der GUI interpretiert, um einen für den aktuellen Kontext passenden Befehl zu bestimmen und um die GUI in Reaktion auf den passenden Befehl zu aktualisieren, 

dadurch gekennzeichnet, dass die Befehle ferner bewirken, dass das Computergerät:

Informationen über ein bidirektionales Kommunikationsprotokoll sendet, womit die Fernbedienung informiert wird, zumindest teilweise in Reaktion auf die über das bidirektionale Kommunikationsprotokoll empfangenen Informationen eine Tastatur auf dem Touchscreen anzuzeigen. 

Zusammenfassung 

Art. 85

Richtungs-Berührungs-Fernbedienung 

R. 47 (1)
Erfindungsbezeichnung 

Das vorliegende System und das vorliegende Verfahren sind besonders nützlich für die Fernsteuerung eines Geräts mit einem oder mehreren Menüs über eine Fernberührungsschnittstelle, die mindestens einen unstrukturierten primären Eingabebereich aufweist. Ein Nutzer kann über eine Berührungsschnittstelle Eingaben vornehmen, ohne die Schnittstelle ansehen zu müssen, und dennoch die erwünschte Reaktion des ferngesteuerten Geräts erzielen. Der primäre Eingabebereich der Berührungsschnittstelle kann eine Hintergrundanzeige wie bei einem Touchscreen aufweisen oder nicht; der primäre Eingabebereich der Berührungsschnittstelle sollte jedoch unstrukturiert sein und sollte keine unabhängig auswählbaren Elemente, Tasten, Symbole oder Ähnliches aufweisen. Da die Berührungsschnittstelle unstrukturiert ist, muss der Nutzer keine auswählbaren Tasten identifizieren. Stattdessen kann er eine Geste in die Schnittstelle eingeben und beobachten, wie das ferngesteuerte Gerät reagiert. Das System liefert keine andere visuelle Bestätigung. 

R. 47 (2), (3), (5)
Inhalt der Zusammenfassung 

Art....

Art. 78

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...

Zusammenfassung 
Art. 85
Richtungs-Berührungs-Fernbedienung 
R. 47 (1)Erfindungsbezeichnung 
Das...


Zurück
Weiter
Footer - Service & support
  • Unterstützung
    • Aktualisierungen der Website
    • Verfügbarkeit der Online-Dienste
    • FAQ
    • Veröffentlichungen
    • Verfahrensbezogene Mitteilungen
    • Kontakt
    • Aboverwaltung
    • Offizielle Feiertage
    • Glossar
Footer - More links
  • Jobs & Karriere
  • Pressezentrum
  • Single Access Portal
  • Beschaffung
  • Beschwerdekammern
Facebook
European Patent Office
EPO Jobs
Instagram
EuropeanPatentOffice
Linkedin
European Patent Office
EPO Jobs
EPO Procurement
X (formerly Twitter)
EPOorg
EPOjobs
Youtube
TheEPO
Footer
  • Impressum
  • Nutzungsbedingungen
  • Datenschutz
  • Barrierefreiheit