Laden...

Touch-Problem mit EO.WebBrowser und Windows Embedded-Systemen

Erstellt von DonStivino vor 8 Jahren Letzter Beitrag vor 8 Jahren 2.118 Views
D
DonStivino Themenstarter:in
51 Beiträge seit 2014
vor 8 Jahren
Touch-Problem mit EO.WebBrowser und Windows Embedded-Systemen

Hallo zusammen,

wir haben eine Anwendung in WPF erstellt, um eigene Webanwendungen darzustellen. Die Anwendung nutzt hierzu eine Komponente von EssentialObjects, nämlich den Google Chrome-Kern als WPF-Control. (siehe hier).

Soweit läuft das Ganze auch sehr stabil. Unter Windows 7, 8, 8.1 kann man problemlos per Touchscreen genau so arbeiten wie man es vom normalen browsen gewohnt ist. Hiermit meine ich Klicken, Scrollen durch Tabellen, etc.

Unter Windows Embedded Systemen funktionieren die Touch-Gesten allerdings nicht mehr. Viel eher ist es so, als würde beispielsweise das Scrollen durch eine Tabelle (Finger auflegen, hoch/runter bewegen, Finger wegnehmen) so interpretiert werden, als würde man mit der Maus arbeiten. (Linke Maustaste drücken, ziehen, loslassen). Das führt dazu, dass das Scrollen unkontrolliertes Markieren verursacht.

Da dieses Problem nur unter Windows-Embedded Systemen auftritt frage ich mich, was genau dort anders ist als beim "normalen" Windows. Das Problem tritt beispielsweise auch nicht im regulären Google Chrome-Browser, oder im Dateiexplorer auf. Auch innerhalb unserer Anwendung ist das Scrollen mit dem Finger überall möglich, außer im WebControl. Gibt es hier noch irgendwelche Einstellungen in der WPF? Ich habe leider auch nach langer Suche nichts gefunden.

Vielen Dank im Voraus.

S

D
DonStivino Themenstarter:in
51 Beiträge seit 2014
vor 8 Jahren

Hat vielleicht doch noch jemand eine Idee?

16.835 Beiträge seit 2008
vor 8 Jahren

Naja, das scheint ja evtl. nen spezifisches Problem des kommerziellen Produkts von essentialobjects zu sein, das meiner Ansicht nach nicht wirklich weit verbreitet ist.
Da es kommerziell ist, hast Du ja sicherlich auch Zugang zu deren Support, mit dem Du eventuell mehr Resonanz als hier bekommen wirst.

T
708 Beiträge seit 2008
vor 8 Jahren

Das denke ich nicht. In Windows Embedded ist es zwar möglich mit einem Touchscreen zu arbeiten, jedoch werden Touchgesten überhaupt nicht unterstützt. Bedeute, sie werden wir eine Mauseingabe verarbeiten.
Genau wie der TE das beschreibt.

Das kommt aber darauf an um welches Embedded es sich handelt. Für XP gab es ja auch eine spezielle Touch-Version, die sich ggf. auch in der Embedded Version installieren ließe.
Dann darf das Embedded-System keinesfallls mit dem Zusatz "Compact" versehen sein. Dann handelt es sich nämlich um den Windows CE Nachfolger mit dem Compact Framework.
Die "Mobile" Version, die nun vollständig durch WindowsPhone abgelöst wurde, hat Touchgesten zwar unterstützt, aber imho auch nur die Mausgesten interpretiert und nicht zwischen Maus und Finger unterschieden.

Standard und Professional sind prinzipiell das vollständige Betriebssystem, wo alle nicht zwingend notwendigen Komponenten, Dienste und Treiber weggelassen wurden. Also nur Kernel, GUI und ein bisschen Netzerk-Treiber.

16.835 Beiträge seit 2008
vor 8 Jahren

Also Windows Embedded Standard 7 unterstützt Multi-Touch-Gesten - nutzen wir nämlich.
Aufgrund der Beschreibung bin ich jetzt nicht von XP Embedded ausgegangen.

Und auch Compact 2013 versteht sowohl Multi- wie auch Single-Touch (bzw. bis 2 zeitgleich).

WES10 ist relativ bis gar nicht verbreitet, weil es eine Online-Verbindung für die Verifizierung will.
Die versteht Multi-Touch sowieso.

D
DonStivino Themenstarter:in
51 Beiträge seit 2014
vor 8 Jahren

Hallo ihr zwei,

vielen Dank für eure Antworten.

Das denke ich nicht. In Windows Embedded ist es zwar möglich mit einem Touchscreen zu arbeiten, jedoch werden Touchgesten überhaupt nicht unterstützt. Bedeute, sie werden wir eine Mauseingabe verarbeiten.

Das "komische" ist aber, dass beispielsweise unter Windows selbst die Touchgesten prinzipiell funktionieren, zum Beispiel das scrollen im Dateiexplorer. Außerdem funktioniert das scrollen auch in den gängigen, vollwertigen Browsern, zum Beispiel Google Chrome oder Internet Explorer.

Ich habe mich auch schon gefragt, ob diese Programme selbst die Interpretation der Eingaben verarbeiten. Das würde ich auch tun, jedoch bekomme ich gar keine spezifischen Touch-Events in dem betroffenen Control. In anderen Bereichen der Applikation, die nur auf WPF basieren, funktioniert es.

Das kommt aber darauf an um welches Embedded es sich handelt. Für XP gab es ja auch eine spezielle Touch-Version, die sich ggf. auch in der Embedded Version installieren ließe.
Dann darf das Embedded-System keinesfallls mit dem Zusatz "Compact" versehen sein.

Wir haben bisher unter folgenden Systemen getestet:
Windows 7 Embedded Standard, Windows Embedded 8 Standard: Funktioniert nicht
Windows 7, 8, 8.1: Funktioniert.

Bei uns wird zwar auch mit Windows CE, bzw. Compact, für unsere Handscanner, aber ich spreche im Moment von den oben genannten Systemen.

Ich frage mich vor Allem, warum es in der reinen WPF und anderen Anwendungen geht und in dem Control von EO nicht.

Danke nochmal!