Aktuelles

Einladung zur mündlichen Prüfung im Rahmen des Promotionsverfahrens von Herrn Thasayu Soisoonthorn

[20.12.2023]

Hiermit laden wir Sie im Namen des Dekans der Fakultät für Mathematik und Informatik zur mündlichen Prüfung im Rahmen des o. g. Promotionsverfahrens für

Mittwoch, den 20.12.2023, um 13:15 Uhr zu einem Zoom-Meeting mit den folgenden Zugangsdaten https://fernuni-hagen.zoom.us/j/65676002177?pwd=K2I0eU5wTmhUekh4SGtIZlZPTHdJZz09

Meeting ID: 656 7600 2177

Passcode: 92351897

ein. Bitte beachten Sie, dass Sie voraussichtlich nicht vor der o. g. Uhrzeit eingelassen werden, da unmittelbar vor der Prüfung noch eine Sitzung der Promotionskommission stattfindet. Direkt im Anschluss an den öffentlichen Vortrag und die öffentliche Diskussion über den Vortrag findet ein Kolloquium statt, an welchem alle Prüfungsberechtigten gemäß § 2 der Promotionsordnung sowie alle Mitglieder von Promotionsausschuss und -kommission teilnehmen dürfen.

Thema des Vortrags wird sein:

An Auto-Associative Memory with Learning and Oblivion

Zusammenfassung:

In der vorliegenden Dissertationsschrift wird ein von der Arbeit des menschlichen Gehirns inspirierter Ansatz zur Erkennung, Abspeicherung und Suche von Sequenzen vorgeschlagen, der sich speziell auf das Lernen von Sequenzen für Anwendungen in der natürliche Sprachverarbeitung bezieht. Dieser basiert auf einer neuartigen assoziativen Speicherstruktur mit einer unterschiedlichen, schrittweise anpaßbaren Länge der zur Adressierung benutzten Schlüssel mit der Möglichkeit der Vorhersage der voraussichtlichen nächstmöglichen Sequenzelemente. Neben dem Erlernen neuer Sequenzen läßt dieser Speicher ebenfalls ein Vergessen obsoleter Elemente zu.

Die auf den Konzepten von HAWKINS beruhende Methodik, ist einfach und kompatibel für Hardware und Softwarerealisierungen. Der neue Ansatz wird nach seiner Vorstellung in einem Hardwarebetriebsmodell auf der Basis von MATLAB Simulink umgesetzt und bewertet, das auf Grund der sehr einfachen, regulären Strukturen gut implementierbar ist.

Das neu entworfene Verfahren wird im folgenden zur Rechtschreibprüfung angewandt, wobei der Standard TREC-5-Datensatz bzgl. seiner Leistung mit einem Verfahren auf der Basis der Levenstein-Distanz, dem Pyspellchecker, LSTM und dem semantisch konditioniertem LSTM mit Elmo Transformer (Elmosclstm) verglichen wird. Die neu vorgeschlagene Methode übertrifft dabei alle vier Methoden und erreicht eine Genauigkeit von 93,66 %, die deutlich höher als diejenigen von Elmosclstm (79,37%) ist.

Ferner wird eine weitere Anwendung zur Lösung des nicht-trivialen Thai-Wortsegmentierungs-problems präsentiert. Diese wird unter Verwendung der Standarddatensätze BEST2010 und LST20 analysiert, wobei selbige mit den Longest Matching, NEWMM, und DeepCut-Methoden verglichen wird. Auch hier zeigen die experimentellen Ergebnisse, dasß die neue, vom Gehirn inspirierte Methode gut arbeitet und einen F1-Score erzielt, der nahe an dem der DeepCut-Methode liegt und die Ergebnisse der beiden anderen Methoden deutlich verbessert. Schließlich wird gezeigt, daß für Daten mit falsch geschriebenen Worten diese durch die gehirninspirierte Methode genau klassifiziert und erkannt werden können und in diesem Fall die durchschnittliche F1-Punktzahl um bis zu 4,5 % im Vergleich zur DeepCut-Methode verbessert werden kann.

Die Promotion wird befürwortet von Herrn Prof. Dr. Herwig Unger.

mathinf.webteam | 08.04.2024