Persönliche Gesundheit

Vision Wissenschaftler widerlegen 60-jährige Wahrnehmung Theorie

Vision Forscher an der Universität York haben, widerlegt eine langjährige Theorie, wie das menschliche vision-system verarbeitet Bilder, mit Hilfe von computational-Modelle und Experimente an Menschen.

Ein team unter der Leitung von John Tsotsos, professor am Department of Electrical Engineering und Computer Science an der Lassonde School of Engineering, festgestellt, dass das menschliche Gehirn nicht wählen interessante Bereiche des Bildes zu verarbeiten bevorzugt, da die sehr einflussreich 1958 Theorie von Donald Broadbent vorgeschlagen.

Für Psychologen Broadbent, die interessante Bild-Teile sind jene, die Relevanz, warum Sie eine Szene in den ersten Platz, oder um neuartige Elemente, die sofort unsere Aufmerksamkeit ergreifen. Broadbent ‚ s Theorie der Frühen Auswahl, die eine moderne Entsprechung in der aufmerksamkeitskarte Theorie von Christof Koch und Shimon Ullman 1985 veröffentlicht, behauptet, dass diese interessante Regionen verarbeitet das Gehirn ein zu einer Zeit, in der Reihenfolge Ihrer Salienz, die eine numerische Punktzahl, wie interessant eine region ist. Nun gibt es Hunderte von saliency-algorithmen, wurzelt in der Arbeit von Koch und Ullman, zu erreichen solch ein ranking.

Tsotsos‘ team fand jedoch, dass die Salienz ist überhaupt nicht notwendig für die einfache Aufgabe, schnell zu entscheiden, was ein Bild zeigt. Außerdem, keiner der aktuellen algorithmen in der künstlichen Intelligenz (KI) für diese Aufgabe annähernd an die menschliche Leistung, die bemerkenswert gut. Auf der anderen Seite hervortreten Berechnung spielt eine primäre Rolle bei der Bestimmung, wo sich Menschen bewegen Ihre Augen, und es ist Auge Bewegung, der auswählt, die Teile einer Szene zu verarbeiten weiter.

„Unsere Studie untersucht diese für die vision und tests der führenden algorithmen, die die Berechnung der saliency-Maßnahme und stellt die Frage „sind diejenigen algorithmen, die Durchführung auf der gleichen Ebene wie die Menschen auf diesen Bilder‘? Zum Beispiel, wenn die Aufgabe ist zu bestimmen, ob es eine Katze in eine Szene, macht die saliency-Algorithmus wählen Sie die Katze richtig? Die Studie zeigte, dass diese algorithmen sind weit von so gut wie Menschen“, sagte Tsotsos.

Zur weiteren Untersuchung der bestehenden algorithmen, die das team führte weitere Experimente mit 17 Probanden von 25 bis 34 Jahre alt. In einem der replizierten Experimenten wurden den Teilnehmern gezeigt, 2000 Farbbilder. Die Themen waren nicht vertraut mit den Bildern und betrachtete jedes Bild mit und ohne Tiere, nur einmal. Die Bilder wurden dann manipuliert, so dass nur die zentralen Teile der Netzhaut mit der höchsten Auflösung sehen würde, was in der Bild und nichts sehen in der Peripherie. Die Teilnehmer wurden gebeten, zu schauen in der Mitte jedes Foto 20 Sekunden lang, bevor er verschwand. Die Teilnehmer waren in der Lage, richtig zu identifizieren, wenn ein Tier anwesend war, in der Bild oder auch nicht.

Tsotsos, sagt diese Entdeckung hat wichtige Auswirkungen für unser Verständnis des menschlichen Sehens und der menschlichen visuellen Verarbeitung, insbesondere für die Diagnose von vision-Erkrankungen, wie Aspekte des Autismus.

„Wenn Sie wollen, um Probleme zu diagnostizieren in der vision, Sie sind basierend auf, wie die gesunde visual processing system funktionieren sollte. Was wir getan haben, mit dieser Studie Hinzugefügt wird, die ein Stück des Puzzles, wie das ‚gesund‘ – system funktioniert das dann ändern würde, wie Sie zu vergleichen, eine Anomalie, um der Lage sein zu diagnostizieren.“

Tsotsos fügt hinzu, dass dieses Stück des Puzzles könnte auch sinnvoll sein, in den Bau neuer Modelle und die Verbesserung der aktuellen, für das autonome fahren-oder Sicherheits-Anwendungen.