Die Grenzen von KI erkunden: Beiträge und Innovationen von Petanux
Die Forschungs- und Innovationsabteilung unseres KI-Unternehmens ist der Grundstein für unsere technologischen Fortschritte und bahnbrechenden Entdeckungen. Diese Abteilung ist bestrebt, die Grenzen der künstlichen Intelligenz zu erweitern, und leitet zahlreiche geförderte Projekte zur Erforschung modernster KI-Anwendungen und -Methoden. Unser Expertenteam veröffentlicht regelmäßig wissenschaftliche Arbeiten in renommierten Fachzeitschriften und trägt damit wertvolles Wissen für die weltweite KI-Gemeinschaft bei. Durch die Umsetzung dieser wissenschaftlichen Errungenschaften in praktische, industrielle Lösungen stellen wir sicher, dass unsere Innovationen nicht nur theoretisch sind, sondern auch in der realen Welt Anwendung finden. Die Abteilung fördert ein kollaboratives Umfeld und arbeitet mit führenden akademischen Einrichtungen und Industrieunternehmen zusammen, um an der Spitze der KI-Forschung zu bleiben.
Durch rigoroses Experimentieren und kontinuierliches Lernen treibt die Forschungs- und Innovationsabteilung unsere Mission voran, Branchen zu verändern und das Leben mit state-of-the-Art KI-Technologien zu verbessern. Petanux verfügt über ein hochqualifiziertes Team von KI-Experten, die über fundierte Kenntnisse und Erfahrungen in einer Vielzahl von KI-Bereichen verfügen, darunter maschinelles Lernen, Computer Vision und Natural Language Processing. Unser Team widmet sich der Erforschung des vollen Potenzials von KI und der Frage, wie es auf reale Probleme und Branchen angewendet werden kann. Wir sind ständig bestrebt, das Gebiet der KI voranzutreiben und neue Grenzen in diesem spannenden und sich schnell entwickelnden Bereich zu erforschen. Die Beiträge von Petanux zur KI- und Big-Data-Branche wurden durch zahlreiche hochwirksame Veröffentlichungen unseres Teams anerkannt.
Liste internationaler Publikationen
Ausgangslage und Zielsetzung: Heutzutage erfordert die zunehmende Anzahl internetverbundener Smart Devices leistungsstarke Rechenserver wie Cloud- und Fog-Computing-Infrastrukturen, um Anfragen und Dienste effizienter denn je zu erfüllen.
Die geografische Distanz zwischen IoT-Geräten und Cloud- bzw. Fog-Servern hat jedoch Herausforderungen wie Latenzzeiten und Energieverbrauch in den Vordergrund gerückt.
Fog Computing hat sich dabei als vielversprechende Technologie erwiesen, um genau diesen Problemen entgegenzuwirken.
Vorgehensweise: In dieser Arbeit werden Ansätze zum Service- und Energiemanagement allgemein untersucht. Anschließend erläutern wir unsere Motivation für das Verfahren der systematischen Literaturrecherche (SLR) sowie die Kriterien zur Auswahl der relevanten Arbeiten.
Resultate: Diese Arbeit stellt vier Bereiche des Service- und Energiemanagements vor: Architektur, Ressourcenmanagement, Zeitplanungsmanagement und Servicemanagement.
Zeitplanungsmanagement wurde in 38 % der untersuchten Arbeiten eingesetzt und stellt damit den am häufigsten adressierten Bereich im Kontext von Service- und Energiemanagement dar.
Ressourcenmanagement folgt an zweiter Stelle und wird in etwa 26 % der Arbeiten behandelt.
Schlussfolgerung: Etwa 81 % der Arbeiten im Bereich Fog Computing simulierten ihre Ansätze, während die übrigen ihre Konzepte mithilfe eines Testbeds in realen Umgebungen implementierten.
Zudem stellten 30 % der Studien eine Architektur oder ein Framework im Rahmen ihrer Forschung vor.
In dieser systematischen Literaturübersicht wurden Publikationen aus fünf renommierten wissenschaftlichen Datenbanken analysiert: IEEE Xplore, Wiley, Science Direct (Elsevier), Springer Link sowie Taylor & Francis, im Zeitraum von 2013 bis 2022.
Insgesamt wurden 1596 relevante Arbeiten identifiziert. Nach einem mehrstufigen Auswahlverfahren verblieben 47 eindeutige Studien.
Im weiteren Verlauf analysieren und diskutieren wir diese Arbeiten, bewerten die darin verwendeten Servicequalitätsparameter und stellen abschließend die Vorteile, Schwächen und Innovationen jeder einzelnen Studie vor.
S. M. Hashemi A. Sahafi A. M. Rahmani M. Bohlouli
2023 | Journal of Electrical and Computer Engineering Innovations (JECEI)
Die prädiktive Modellierung verschiedenster Systeme weltweit ist aus physikalischer und ingenieurwissenschaftlicher Sicht von zentraler Bedeutung. Das Erkennen unterschiedlicher Systeme sowie die Fähigkeit, deren zukünftiges Verhalten vorherzusagen, eröffnet zahlreiche relevante Anwendungsfelder. In der Regel wird die Physik als Grundlage zur Modellierung komplexer Systeme herangezogen. Physikalisches Modellieren kann maßgeblich zur Reduktion von Komplexität beitragen und gleichzeitig, insbesondere im Zusammenspiel mit neuartigen Verfahren der Künstlichen Intelligenz, eine leistungsfähigere Systemabbildung ermöglichen. Physikalische Modelle liefern dabei Daten und Wissen, die ein ergänzendes und tiefgehendes Verständnis des jeweiligen Systems schaffen. Durch den Einsatz angereicherter Datenquellen und gezielter Trainingsphasen kann ein integriertes Gesamtmodell eine signifikant verbesserte Genauigkeit erreichen. Die Wirksamkeit hybrider, physikgeleiteter oder KI-gestützter Modelle wurde bereits in unterschiedlichen Anwendungsfällen durch experimentelle Ergebnisse validiert. Solche hybriden Ansätze ermöglichen eine höhere Genauigkeit, bessere Interpretierbarkeit sowie mehr Transparenz. In dieser Arbeit geben wir einen detaillierten Überblick darüber, wie maschinelles Lernen und physikalische Modellierung in einer interaktiven Herangehensweise integriert werden können. Dazu schlagen wir eine Klassifikation möglicher Interaktionen zwischen physikalischer Modellierung und Machine Learning vor. Unsere Einteilung umfasst drei Ansätze: (1) Physikgeleitetes Maschinelles Lernen (2) Maschinell geleitete Physikmodellierung und (3) Wechselseitig geführte Integration von Physik und KI. Wir analysieren im Rahmen dieses Surveys die Modelle und Spezifika jeder dieser drei Ansätze eingehend.
Azra Seyyedi, Mahdi Bohlouli, SeyedEhsan Nedaaee Oskoee
2023 | ACM Computing Surveys
Empfehlungssysteme haben sich in der Forschung längst über einfache User-Item-Filtering-Methoden hinausentwickelt. In der Praxis werden diese klassischen Verfahren jedoch weiterhin häufig eingesetzt vor allem, weil sie leichter zu debuggen und anzupassen sind. Tatsächlich bieten bestehende Frameworks oft unzureichende Unterstützung für algorithmische Feinabstimmung. Zudem konzentrieren sie sich primär auf die Reproduzierbarkeit von Genauigkeitswerten aktueller State-of-the-Art-Modelle, nicht jedoch auf die Entwicklungs- und Wartungsfreundlichkeit von Algorithmen. Dies erschwert insbesondere iteratives Experimentieren und Debugging in realen Anwendungsszenarien erheblich. In dieser Arbeit stellen wir ein AutoML-basiertes Framework vor, das auf einem modularen, tiefen sitzungsbasierten Empfehlungssystem aufbaut und eine integrierte Komponente zur automatisierten Hyperparameter-Optimierung (HPT4Rec) enthält. Das Framework automatisiert die Suche nach dem optimalen sitzungsbasierten Modell für einen gegebenen Datensatz. Dadurch kann das Modell kontinuierlich aktualisiert und an Veränderungen in Art und Umfang der Daten angepasst werden, wie sie im realen Einsatz üblich sind. Es wird gezeigt, dass HPT4Rec über erweiterbare Datenstrukturen, Kompatibilität mit Trainingsdiensten sowie GPU-beschleunigte Ausführung verfügt und dabei sowohl Trainingsleistung als auch Empfehlungsgüte bewahrt. Unsere Experimente auf dem RecSys 2015 Benchmark-Datensatz zeigen, dass die Performance mit aktuellen State-of-the-Art-Ergebnissen vergleichbar ist. Die Ergebnisse unterstreichen die Bedeutung kontinuierlicher und iterativer Hyperparameter-Tuning-Prozesse, insbesondere für reale Anwendungsszenarien.
Eva Zangerle and Günther Specht Amir Reza Mohammadi, Amir Hossein Karimi, Mahdi Bohlouli
2023 | the 34th workshop on basics of database systems (Grundlagen von Datenbanken)
Mit dem Aufkommen des Internet of Things (IoT) und GPS-fähiger Smartphones wurde eine große Menge historischer Reisedaten gesammelt. Der Zugang zu dieser Art von Big Data hat die Entwicklung von Point-of-Interest (POI)-Empfehlungssystemen ermöglicht. Aufgrund der Vielzahl verfügbarer Orte und der geringen Check-in-Dichte einzelner Nutzer*innen stellt die POI-Empfehlung jedoch eine komplexe Herausforderung dar. In der Forschung wurde diesem Problem bereits umfangreich Aufmerksamkeit gewidmet, insbesondere unter Berücksichtigung von geografischer Verteilung, sozialen Netzwerken und zeitabhängigen Verhaltensmustern. In dieser Arbeit stellen wir ein neuartiges Modell namens GeoTS (Geographical-Temporal and Social Multi-Center POI Recommendation) vor, das soziale Beziehungen explizit in die Entscheidungsfindung einbezieht. Wir gehen davon aus, dass soziale Bindungen einen Einfluss darauf haben können, ob Personen bestimmte Orte besuchen oder nicht. Umfangreiche Experimente auf einem realen Datensatz (Gowalla) zeigen die Effektivität von GeoTS mit einer Leistungssteigerung von 7,03 % bei der Precision und 7,76 % beim nDCG.
Simin Bakhshmand, Bahram Sadeghi Bigham, Mahdi Bohlouli
2022 | International Conference on Intelligent Systems Design and Applications
Zielsetzung: Viele Menschen sterben infolge medizinischer Fehler. Eine gezielte klinische Aus- und Weiterbildung kann zu einer besseren medizinischen Versorgung führen.
Traditionell setzen Kliniken auf direkte, präsenzbasierte Schulungsformate zur Qualifizierung ihres Personals.
In jüngerer Zeit greifen sie jedoch zunehmend auf elektronische Lernmethoden (E-Learning) zurück, um Fortbildungen am Arbeitsplatz oder an anderen geeigneten Orten zu ermöglichen.
Ziel dieser Studie ist es, medizinische Lernsysteme in Entwicklungsländern zu identifizieren und hinsichtlich ihrer Priorität zu bewerten.
Dieser Beitrag verfolgt daher das Ziel, eine Forschungsrichtung zur Entwicklung effektiver medizinischer Lernsysteme aufzuzeigen.
Konzeption / Methodik / Vorgehensweise: Heutzutage sehen sich Organisationen mit schnelllebigen Märkten, Wettbewerbsstrategien, technologischen Innovationen und dem Zugang zu medizinischen Informationen konfrontiert.
Gleichzeitig steht die entwicklungsbezogene Welt vor einer Reihe gesundheitlicher Krisen, die das Leben von Millionen Menschen bedrohen.
Mangelnde Infrastruktur sowie fehlendes, qualifiziertes Fachpersonal gelten als wesentliche Hürden für den Ausbau wirksamer Behandlungsansätze.
Die Förderung medizinischer Lernsysteme in Entwicklungsländern kann dazu beitragen, diesen Herausforderungen zu begegnen.
Diese Studie identifiziert verschiedene Faktoren aus der Literatur, die den Erfolg von E-Learning-Systemen im medizinischen Bereich beeinflussen.
Die Autor*innen haben dazu eine systematische Literaturübersicht (SLR) bis zum Jahr 2019 durchgeführt.
Dabei wurden 109 Artikel identifiziert und nach einem strukturierten Auswahlverfahren wurden schließlich 17 relevante Beiträge in die Analyse einbezogen.
Ergebnisse: Die Studie zeigt, dass E-Learning-Systeme erhebliche Vorteile für den medizinischen Sektor in Entwicklungsländern bieten.
Die Autor*innen stellten fest, dass exekutive, administrative und technologische Faktoren einen maßgeblichen Einfluss auf die Umsetzung von E-Learning im medizinischen Bereich haben.
Lernmanagementsysteme (LMS) ermöglichen eine virtuelle, erweiterte und schnellere Interaktion zwischen Lernenden und Lehrenden sowie eine effiziente Gestaltung von Lehrprozessen.
Durch den Einsatz von Computer- und Internettechnologien bieten sie zahlreiche digitale Werkzeuge zur Unterstützung von Lehr- und Lernprozessen.
Forschungsgrenzen / Implikationen: Die Autor*innen haben ihre Literaturrecherche auf die Datenbanken Scopus, Google Scholar, Emerald, Science Direct, IEEE, PLoS, BMC und ABI/Inform beschränkt.
Zahlreiche weitere wissenschaftliche Fachzeitschriften könnten ebenfalls relevante Artikel enthalten, wurden jedoch nicht berücksichtigt.
Diese Studie basiert ausschließlich auf Artikeln, die anhand spezifischer Suchbegriffe wie „medical learning systems“, „medical learning environment“ und „developing countries“ identifiziert wurden.
Es ist möglich, dass relevante Studien unter anderen Begriffen veröffentlicht wurden und somit nicht in die Analyse eingeflossen sind.
Darüber hinaus besteht ein Bedarf an weiterer Forschung unter Einsatz alternativer methodischer Ansätze.
Nicht-englischsprachige Publikationen wurden ausgeschlossen. Es könnten jedoch zusätzliche relevante Arbeiten in anderen Sprachen existieren, die in dieser Studie nicht berücksichtigt wurden.
Praktische Implikationen: Diese Studie unterstützt Ärztinnen und Wissenschaftlerinnen dabei, klinische Lernsysteme in Entwicklungsländern besser zu verstehen.
Darüber hinaus können die Ergebnisse Krankenhausmanager*innen dabei helfen, die Einführung von E-Learning-Mechanismen zu beschleunigen.
Die Forschung ermöglicht es den Autor*innen zudem, einen Beitrag zum Wissens- und Erfahrungskorpus zu leisten und damit das oft gezeichnete Bild vom ständig hilfebedürftigen Entwicklungsland differenzierter darzustellen.
Die Autorinnen hoffen, dass ihre Empfehlungen insbesondere klinischen Ausbilder*innen in Entwicklungsländern dabei helfen, sich an aktuelle Entwicklungen in der medizinischen Bildung in einer sich wandelnden Welt anzupassen.
Wissenschaftlicher Mehrwert: Diese Arbeit gehört zu den ersten systematischen Übersichtsarbeiten, die sich mit der Einführung medizinischer Lernsysteme speziell in Entwicklungsländern befassen.
Mahdi Bohlouli, Omed Hassan Ahmed, Ali Ehsani, Marwan Yassin Ghafour, Hawkar Kamaran Hama, Mehdi Hosseinzadeh, Aram Mahmood Ahmed
2022 | Kybernetes
Obwohl Fog Computing ein vergleichsweise neues Forschungsthema ist, existieren bereits robuste und integrierte Ansätze für das Service Activation Management sowie die Verteilung von IoT-Diensten auf verfügbare Fog-Computing-Ressourcen. In dieser Arbeit wird eine mehrzielige Optimierungslösung auf Basis des Gray-Wolf-Optimierungsalgorithmus (GWO) vorgestellt, um das Scheduling und das Aktivierungsmanagement von Diensten im Fog Computing effizienter zu gestalten. Die Lösung nutzt eine mehrzielige Zielfunktion im Rahmen der Ressourcenzuteilung, indem der vorgeschlagene Algorithmus erweitert wird, um den Ressourcenstatus zu überwachen und Aufgaben zu verwalten. Das Hauptziel dieser Studie ist die Herstellung eines Kompromisses zwischen Energieverbrauch und Ausführungszeit der Aufgaben. Dazu wird ein zweistufiger Optimierungsansatz präsentiert, der sowohl das Scheduling- als auch das Offloading-Problem löst: In der ersten Phase wird der GWO-Algorithmus zur Lösung des Scheduling-Problems eingesetzt, in der zweiten Phase wird Containermigration genutzt, um Aufgaben dynamisch zu verteilen und Ressourcen effizient zuzuweisen. Durch die Migration von Containern können inaktive physische Server abgeschaltet werden, was zu einer Reduzierung des Energieverbrauchs, einer besseren Lastverteilung, geringerer Latenz und höherer Effizienz führt. Die vorgeschlagene Methode wurde in drei Szenarien mit 700, 1000 und 5000 Knoten getestet, mithilfe von iFogSim implementiert und mit fünf klassischen Optimierungsalgorithmen verglichen. Die Analyseergebnisse zeigen die überlegene Performance der vorgeschlagenen Strategie: Die durchschnittliche Ausführungszeit bei der Auswahl geeigneter Hosts konnte im Vergleich zu PSO, ACO, GOA, GA und COA um 15 %, 20 %, 25 %, 20 % bzw. 21 % gesenkt werden. Zudem konnte die durchschnittliche Zeit für die Container-Neuzuordnung um 12 % reduziert werden, während die Rate an Verstößen gegen das Service-Level Agreement (SLA) im Bereich von 9–10 % blieb – im Vergleich zu allen anderen untersuchten Ansätzen.
Sayed Mohsen Hashemi, Amir Sahafi, Amir Masoud Rahmani, Mahdi Bohlouli
2022 | IEEE Access
Die digitale Transformation der Industrie zählt zu den bedeutendsten technologischen Treibern des Wandels im Kontext der vierten industriellen Revolution, mit tiefgreifenden Auswirkungen auf die Arbeitswelt der Zukunft. Um dieser Herausforderung zu begegnen, verfolgt das Erasmus+-Projekt SkoPs das Ziel, die europäische Arbeitskraft inklusiv zu stärken, indem innovative Methoden und digitale Werkzeuge für blended Learning, Lehre, Weiterbildung und Leistungsbewertung entwickelt werden, darunter frei zugängliche Online-Kurse und Webinare im Bereich Industrial IoT (IIoT). Zur Erreichung dieses Ziels bringt das SkoPs-Team Unternehmen, lokale Entwicklungsagenturen und Hochschulen aus drei europäischen Ländern zusammen. In diesem Artikel werden die Grundlagen, Struktur, das pädagogische Konzept sowie die zentralen Ergebnisse des Projekts vorgestellt. Darüber hinaus wird auf Gerechtigkeitsfragen eingegangen, die auftreten können, wenn diese Aspekte bei der Gestaltung der Trainingsmaßnahmen nicht gezielt berücksichtigt werden. Zu diesem Zweck wurden Leitlinien, Vorlagen und konkrete Maßnahmen im Rahmen des Qualitätsmanagement- und Monitoringplans entwickelt, um derartigen Ungleichheiten präventiv zu begegnen. Abschließend wird die Notwendigkeit betont, dass Projekte wie SkoPs von einem umfassenden Kommunikationskonzept begleitet werden sollten, nicht nur zur Verbreitung und Wirkungssteigerung der Schulungsmodule in ganz Europa, sondern auch, um traditionell benachteiligte Gruppen wie ländliche Regionen oder Frauen gezielt zu erreichen. Der Kommunikationsplan von SkoPs enthält konkrete Beispiele für Maßnahmen, die speziell zu diesem Zweck entwickelt wurden.
A Behravan, N Bogonikolos, M Bohlouli, C Cachero, P Kaklatzis, B Kiamanesh, S Luján-Mora, S Meliá, M Mirhaj, R Obermaisser
2022 | EDULEARN22 Proceedings
Das Internet der Dinge (IoT) ist ein neues Phänomen, das neuartige Geschäftsmöglichkeiten eröffnet. Es ermöglicht eine programmierbare Welt und bietet Organisationen vielfältige Vorteile. Laut aktuellen Umfragen zählen Cybersecurity-Probleme zu den umfassendsten und komplexesten Herausforderungen, mit denen IoT-Geräte konfrontiert sind. Bedrohungserkennung gilt als präventive Maßnahme gegen Malware, Ransomware und andere Angriffe – Bedrohungen, die angesichts des dramatischen Anstiegs von Malware-Attacken Jahr für Jahr ernster werden. Dieser Artikel untersucht Techniken zur Bedrohungserkennung, die in drei Kategorien unterteilt werden: Malware-Erkennung, Angriffserkennung und Ransomware-Erkennung – basierend auf Studien, die zwischen 2017 und August 2021 veröffentlicht wurden. Wir analysieren die in der Forschung vorgeschlagenen Lösungen, Methoden, Merkmale, Klassifikatoren und Werkzeuge im IoT-Kontext. Darüber hinaus werden zentrale Forschungsfragen formuliert, deren Beantwortung zukünftige Arbeiten dabei unterstützen kann, effizientere Lösungen zu entwickeln. Auch die Ergebnisse und Schwächen der einzelnen Studien werden diskutiert. Abschließend identifizieren wir auf Basis der ausgewerteten Literatur eine Reihe offener Herausforderungen und praktischer Maßnahmen, die als Leitlinien für zukünftige Forschungsarbeiten im Bereich Bedrohungserkennung im IoT dienen können.
Nasim Soltani, Amir Masoud Rahmani, Mahdi Bohlouli, Mehdi Hosseinzadeh
2022 | Concurrency and Computation: Practice and Experience
Die Lebensdauer von IoT-Netzwerken und der Energieverbrauch gehören zu den zentralen Herausforderungen in der heutigen vernetzten Welt. Ein vielversprechender Ansatz zur Lösung dieses Problems ist das Clustering, bei dem alle Knoten in virtuelle Cluster gruppiert werden und jeweils ein Knoten als Cluster-Head fungiert. Die gezielte Auswahl des Cluster-Heads kann den Energieverbrauch erheblich reduzieren, insbesondere im Kontext des Internet of Things (IoT), das zunehmend in verteilten Umgebungen wie Wäldern oder der intelligenten Landwirtschaft zum Einsatz kommt. In dieser Arbeit wird ein neuer Algorithmus zur energieeffizienten Cluster-Head-Auswahl vorgestellt: der EEMST-Algorithmus (Energy Efficient Minimum Spanning Tree). Dieser basiert auf graphentheoretischen Prinzipien und berechnet einen gewichteten minimalen Spannbaum auf Grundlage der euklidischen Distanz zwischen Knoten. Der so berechnete Spannbaum ermöglicht die Auswahl des optimalen Cluster-Heads und die bestmögliche Datenübertragungsroute zwischen den Mitgliedsknoten und dem Cluster-Head. Der vorgeschlagene EEMST-Algorithmus unterstützt sowohl Multihop-Routing innerhalb eines Clusters als auch Single-Hop-Routing zwischen Clustern. Die durchgeführten Simulationen zeigen eine deutliche Verbesserung der Netzwerklebensdauer im Vergleich zu bestehenden Ansätzen.
Vida Doryanizadeh, Amin Keshavarzi, Tajedin Derikvand, Mahdi Bohlouli
2021 | Applied Artificial Intelligence
Damit autonome Fahrzeuge ein fester Bestandteil unseres Alltags werden können, müssen sie in der Lage sein, die Sicherheit von Menschen zu gewährleisten. Diese Sicherheit ergibt sich aus der Fähigkeit, zukünftige Situationen vorherzusagen. Der derzeit am weitesten verbreitete Ansatz in modernen sensorimotorischen Fahrmodellen ist das sogenannte Behavior Cloning. Diese Modelle haben jedoch Schwierigkeiten, zukünftige Entwicklungen vorherzusehen, um entsprechend sicher und vorausschauend zu handeln. Menschen hingegen beobachten zunächst ihre Umgebung, analysieren Objekte und deren Verhalten im zeitlichen Verlauf und leiten daraus ab, wie sich diese im nahen Zukunftshorizont entwickeln könnten. Ausgehend von dieser Beobachtung zeigen wir zunächst die Grenzen von Behavior Cloning in Bezug auf sichere und zuverlässige Entscheidungsfindung auf. Anschließend schlagen wir einen hierarchischen Ansatz vor, mit dem ein Agent lernen kann, sicherere Entscheidungen auf Basis plausibler Zukunftsszenarien zu treffen. Der zentrale Gedanke ist dabei, nicht manuell zukunftsbezogene Merkmale auszuwählen, sondern ein hochdimensionales Vorhersagemodul in das Modell zu integrieren z. B. durch die Prognose zukünftiger RGB- oder semantisch segmentierter Bildfolgen. So kann das Modell die notwendigen Merkmale eigenständig lernen. Abschließend zeigen wir sowohl qualitativ als auch quantitativ, dass dieser Ansatz zu sichereren Entscheidungen durch den Agenten führt.
Mohammad Hossein Nazeri, Mahdi Bohlouli
2021 | IEEE International Conference on Data Mining (ICDM)
Angesichts der Vielzahl an verfügbaren Cloud-Computing-Diensten in föderierten Cloud-Umgebungen müssen Nutzer*innen ihre aktuell benötigten sowie zukünftig erwarteten Ressourcen und die zugehörigen Quality-of-Service(QoS)-Parameter genau kennen, um geeignete Dienste aus einem Cloud-Pool zusammenzustellen. Zahlreiche Ansätze und Methoden wurden entwickelt, um dieses Problem zu adressieren und QoS-Parameter zuverlässig vorherzusagen. Diese Parameter werden typischerweise in Form von Zeitreihen gespeichert. Bisherige Arbeiten konzentrieren sich meist entweder auf das Erkennen von Mustern zwischen verschiedenen Zeitreihen oder innerhalb einer bestimmten Zeitreihe, nicht jedoch auf beide Aspekte gleichzeitig. Die zentrale Forschungslücke, die diese Arbeit adressiert, besteht darin, Ähnlichkeiten sowohl innerhalb einzelner Zeitreihen als auch zwischen verschiedenen Zeitreihen zu berücksichtigen. In dieser Studie wird ein neuartiger hybrider Ansatz vorgeschlagen, der auf Zeitreihen-Clustering, dem Prinzip der Minimum Description Length (MDL) sowie der Dynamic Time Warping (DTW)-Ähnlichkeitsmessung basiert. Damit werden Nutzerbedarfe analysiert und die jeweils bestmögliche QoS-Vorhersage innerhalb von Multi-Cloud-Umgebungen bereitgestellt. Die zeitliche Komponente wurde dabei als zentraler Faktor berücksichtigt, um Veränderungen im Zeitverlauf präzise zu analysieren. Darüber hinaus basiert die Methode auf einer formbasierten Vorhersagestrategie, bei der DTW verwendet wird, um Unterschiede zwischen geografischen Zeitzonen zu kompensieren. Ein neuartiges Preprocessing-Verfahren mit statistisch generierten semi-realen Daten wurde eingesetzt, um mit rauschbehafteten Daten umzugehen. Die experimentellen Ergebnisse zeigen, dass die Vorhersagen des vorgeschlagenen Ansatzes den realen Werten sehr nahekommen. Im Durchschnitt wurde eine Mean Absolute Error Rate (MAE) von etwa 0,5 erreicht. Für die Evaluierung wurde der WS-DREAM-Datensatz verwendet, der in diesem Forschungsbereich weit verbreitet ist.
Amin Keshavarzi, Abolfazl Toroghi Haghighat, Mahdi Bohlouli
2021 | Iranian Journal of Science and Technology, Transactions of Electrical Engineering
Chronische Nierenerkrankung (CKD) gilt zunehmend als ernstzunehmendes Gesundheitsrisiko, insbesondere in Entwicklungsländern, in denen eine angemessene medizinische Behandlung häufig mit hohen Kosten verbunden ist. Daher gewinnt die frühzeitige Vorhersage von CKD, um die Nieren zu schützen und das Fortschreiten der Erkrankung zu verlangsamen, zunehmend an Bedeutung für Ärztinnen und Wissenschaftlerinnen. Das Internet der Dinge (IoT) bietet als effektives Paradigma, mit kostengünstigen Körpersensoren und intelligenten medizinischen Multimediageräten, eine wichtige Grundlage für die Fernüberwachung der Nierenfunktion, insbesondere in Regionen mit eingeschränktem Zugang zu medizinischer Versorgung. Zur Erreichung dieses Ziels wird in dieser Arbeit ein diagnostisches Vorhersagemodell für CKD und deren Schweregrad vorgeschlagen, das auf IoT-basierten Multimediadaten aufbaut. Da sowohl die Einflussfaktoren auf CKD vielfältig als auch die Datenmengen aus IoT-Multimediageräten sehr groß sind, werden relevante Merkmale basierend auf klinischen Beobachtungen, ärztlicher Erfahrung sowie bestehender Fachliteratur ausgewählt. Diese Merkmalsauswahl erfolgt gezielt für verschiedene Gruppen von Multimediadaten, um die Leistungsfähigkeit der CKD-Vorhersage und Schweregradeinstufung mithilfe verschiedener Klassifikationsverfahren zu evaluieren. Die experimentellen Ergebnisse zeigen, dass das eingesetzte Datenset in Kombination mit den vorgeschlagenen Merkmalen eine Genauigkeit von 97 %, eine Sensitivität von 99 % und eine Spezifität von 95 % erreicht, unter Anwendung des Entscheidungsbaum-Klassifikators (J48). Im Vergleich zu anderen Klassifikatoren wie Support Vector Machine (SVM), Multi-Layer Perceptron (MLP) und Naive Bayes schneidet dieses Modell signifikant besser ab. Zudem konnte mit dem vorgeschlagenen Merkmalsset auch die Ausführungszeit gegenüber anderen Datenkombinationen deutlich verbessert werden.
Mehdi Hosseinzadeh, Jalil Koohpayehzadeh, Ahmed Omar Bali, Parvaneh Asghari, Alireza Souri, Ali Mazaherinezhad, Mahdi Bohlouli, Reza Rawassizadeh
2021 | Multimedia Tools and Applications
Heutzutage stellen das Datenvolumen und die Vielfalt der generierten Informationen sowie deren effiziente Verarbeitung und die damit verbundene Wertschöpfung durch skalierbare Analysen zentrale Herausforderungen für Unternehmen und praxisnahe Anwendungen wie das Talent Analytics dar. Große Unternehmen und Arbeitsagenturen müssen beispielsweise datenintensive Abgleiche zwischen Arbeitssuchenden und einer Vielzahl von Stellenangeboten gleichzeitig durchführen. Ziel ist dabei die großflächige Zuordnung von passenden Talenten (Person) mit der richtigen Qualifikation (Profession) zur richtigen Stelle (Position) zum richtigen Zeitpunkt (Period). Diese Definition bezeichnen wir in dieser Arbeit als die 4P-Regel. Alle Organisationen sollten die 4P-Regel in ihre täglichen Rekrutierungsprozesse integrieren, um eine effiziente Personalentwicklungsstrategie zu fördern. Dies erfordert die Integration großer, heterogener Datenmengen aus unterschiedlichen Quellen und bedarf dringend dem Einsatz skalierbarer Algorithmen und Analysesysteme. Die hohe Datenvielfalt im Human Resource Management macht eine Beschleunigung analytischer Prozesse unabdingbar. Die zentrale Herausforderung liegt dabei nicht nur in der Frage, wie und wo die Daten gespeichert werden, sondern vor allem darin, wie sie ausgewertet werden können, um echten Mehrwert zu generieren (Knowledge Discovery). In dieser Arbeit schlagen wir ein generisches Modell zur Darstellung von Berufskompetenzen vor: das Career Knowledge Representation (CKR) Model. Es ist so konzipiert, dass es eine breite Vielfalt von Kompetenzen in unterschiedlichen Berufsgruppen abbilden kann. Zur Validierung des Modells wurde ein synthetisiertes Qualifikations-Datenset von 15 Millionen Beschäftigten mit 84 Dimensionen (Kompetenzen) aus realen HRM-Daten verwendet. Die Evaluierung erfolgte mithilfe der vorgeschlagenen Evolutionary MapReduce K-Means (EMR)-Methode. Diese Methode zeigt im Vergleich zu ähnlichen Ansätzen schnellere und genauere Ergebnisse und wurde mit realen großskaligen Datensätzen getestet. Die Ergebnisse der Experimente werden in dieser Arbeit ausführlich diskutiert.
Mahdi Bohlouli, Zhonghua He
2021 | Companion Proceedings of the Web Conference
Es ist von großer Bedeutung, Zusammenhänge und Korrelationen zwischen der individuellen wissenschaftlichen Entwicklung von Personen und dem Wachstum ihres jeweiligen Fachgebiets zu erkennen und zu analysieren. In vielen Fällen werden zur Bewertung von Forschenden lediglich Kennzahlen wie Zitationsanzahl, h-Index oder i10-Index herangezogen. Dabei werden Wissenschaftler*innen unterschiedlicher Disziplinen auf Basis gleicher Metriken miteinander verglichen. Dies stellt jedoch keinen fairen Vergleich dar, da sich Fachgebiete stark im Hinblick auf Entwicklungsgeschwindigkeit und Zitationsdichte unterscheiden. In dieser Arbeit greifen wir auf das Beschleunigungskonzept aus der Physik zurück und schlagen eine neue Bewertungsmethode mit neuartigen Metriken vor, um Wissenschaftler*innen effizienter und gerechter zu bewerten und zwar auf Basis einer Echtzeitanalyse ihrer aktuellen wissenschaftlichen Leistung im Verhältnis zum Wachstum ihres Fachgebiets. Dabei werden verschiedene Eingangsgrößen berücksichtigt etwa, ob es sich um einen Nachwuchsforschenden oder einen etablierten Wissenschaftler*in handelt. Die Bewertung erfolgt dynamisch über die Zeit und berücksichtigt alle relevanten Einflussfaktoren. Die Ergebnisse zeigen, dass die vorgeschlagene Methode eine aussagekräftigere und fairere Bewertung liefert als herkömmliche Kennzahlen aus dem Stand der Technik.
Mahdi Bohlouli, Jonathan Hermann, Fabian Sunnus
2021 | Companion Proceedings of the Web Conference
Kinder mit Autismus-Spektrum-Störungen (ASS) zeigen oft auffällige Verhaltensmuster. In der Regel können sie nicht flüssig sprechen und nutzen stattdessen Gesten und einzelne Wörter, um sich mitzuteilen. Daher gehört das Verständnis ihrer Bedürfnisse zu den größten Herausforderungen für Betreuende, doch eine frühe Diagnose kann diesen Prozess erheblich erleichtern. Der Mangel an verbaler und nonverbaler Kommunikation kann durch Assistive Technologien und das Internet der Dinge (IoT) gezielt unterstützt werden. IoT-basierte Systeme ermöglichen die Früherkennung und Verbesserung der Lebensqualität von Patient*innen durch den Einsatz von Deep-Learning- (DL) und Machine-Learning- (ML)-Algorithmen. Diese Arbeit bietet eine systematische Übersicht zu aktuellen Diagnoseansätzen für ASS im Kontext IoT-basierter Systeme. Das Hauptziel besteht darin, zentrale Forschungstrends im Bereich IoT-gestützter Gesundheitsversorgung zu identifizieren. Darüber hinaus wird eine technische Taxonomie vorgestellt, um bestehende wissenschaftliche Beiträge zu ASS-Methoden und Algorithmen systematisch zu klassifizieren. Eine statistische und funktionale Analyse der untersuchten Ansätze erfolgt anhand wichtiger Evaluationsmetriken wie Genauigkeit (Accuracy) und Sensitivität.
Mehdi Hosseinzadeh, Jalil Koohpayehzadeh, Ahmed Omar Bali,Farnoosh Afshin Rad, Alireza Souri, Ali Mazaherinezhad, Aziz Rezapour,Mahdi Bohlouli
2020 | The Journal of Supercomputing
Die Dienstüberwachung in föderierten Cloud-Umgebungen erzeugt großskalige QoS-Zeitreihendaten mit verschiedenen unbekannten, häufig auftretenden und anomal auffälligen Mustern. Solche Muster können zu ungenauer Ressourcenbereitstellung führen, wodurch Verletzungen von Dienstgütevereinbarungen (SLA) nicht rechtzeitig erkannt und durch prädiktive oder präventive Maßnahmen vermieden werden. In solchen Szenarien ist eine ausreichende Intelligenz in Form eines Expertensystems zur Entscheidungsunterstützung erforderlich. Die zentrale Herausforderung besteht daher darin, unbekannte, häufige und abnormale Muster effizient aus QoS-Zeitreihendaten föderierter Clouds zu identifizieren. Ein wesentliches Merkmal dieser Daten ist, dass sie unlabelt sind und sowohl regelmäßige als auch anomale Strukturen enthalten. Studien zeigen, dass Clustering die gängigste und zugleich effektivste Methode ist, um interessante Muster in unlabelten Daten zu entdecken. Allerdings ist Clustering häufig mit einem hohen Zeitaufwand verbunden und leidet unter Genauigkeitsproblemen, insbesondere hinsichtlich Konvergenz und der Bestimmung einer optimalen Clusteranzahl. In dieser Arbeit wird ein neuartiger, genetisch basierter Clustering-Algorithmus vorgestellt, der im Vergleich zu bestehenden Verfahren sowohl eine höhere Genauigkeit als auch schnellere Ausführung aufweist. Darüber hinaus ist der Algorithmus in der Lage, die optimale Anzahl an Clustern während des Clustering-Prozesses automatisch zu bestimmen. Die experimentellen Ergebnisse belegen eine verbesserte Genauigkeit und Konvergenz, was den Einsatz des Verfahrens in Expertensystemen für die Ressourcenbereitstellung und autonome Entscheidungsfindung in föderierten Cloud-Umgebungen rechtfertigt. Neben dem wissenschaftlichen Beitrag dieser Arbeit kann der vorgeschlagene Ansatz auch praktisch von Anbietern föderierter Cloud-Dienste eingesetzt werden.
Amin Keshavarzi, Abolfazl Torghi Haghighat, Mahdi Bohlouli2020 | Journal of Expert Systems with Applications
Die zentrale Frage in der heutigen, sich rasant verändernden Welt lautet: Wie schnell und mit welchem Wissen sollte ein System oder Agent auf neue Anforderungen reagieren können? Diese Herausforderung lässt sich als Knowledge-Mapping-Problem für entscheidungsbasierte Systeme auf der Grundlage großskaliger Datensätze definieren – mit Verlässlichkeit (Veracity) und Genauigkeit (Accuracy) als zentrale Bewertungskriterien, insbesondere in sicherheitskritischen Anwendungsfeldern. In dieser Arbeit wird ein hybrider und skalierbarer Ansatz zur Multi-Kriterien-Entscheidungsfindung (MCDM) vorgestellt, der auf MapReduce basiert und speziell für den Einsatz in Big-Data-Umgebungen entwickelt wurde. Das domänenspezifische Problem, das gelöst wird, besteht in der Empfehlung von Weiterbildungsressourcen, die gezielt bestehende Kompetenzlücken bei Arbeitssuchenden schließen sollen. Die zentralen Innovationen dieses Ansatzes sind: (1) Nutzung eines großskaligen, semi-realen Skill-Analytics- und Trainingsdaten-Sets (Datenperspektive), (2) Ein hybrider MCDM-Ansatz, der Kompetenzlücken aufdeckt und erforderliche Fähigkeiten mit passenden Lernressourcen abgleicht (Entscheidungsunterstützungsperspektive), übertragbar auf andere Matching-Probleme in beliebigen Sektoren. (3) Einsatz von MapReduce als skalierbare Verarbeitungsarchitektur, die bei großen Datenmengen geringere Latenzzeiten und höhere Ergebnisqualität ermöglicht (Big-Data- und Skalierbarkeitsperspektive). Die experimentellen Ergebnisse zeigten eine Trefferquote von 89 % bei der Clusterbildung und dem Matching. Die Empfehlungsergebnisse wurden zudem gemeinsam mit einem Industriepartner getestet und validiert.
Mahdi Bohlouli; Martin Schrage2020 | IEEE International Conference on Big Data (Big Data)
Die Umsetzung eines cloudbasierten Knowledge Modeling as a Service (KaaS) unterstützt das Erfassen, Verwalten und Teilen von Wissen aus unterschiedlichen Quellen. Cloud Computing ermöglicht es Nutzer*innen, auf ihre Daten einfach zuzugreifen und diese zu bearbeiten, ohne zusätzlichen Verwaltungsaufwand oder die Notwendigkeit eigener Softwareentwicklungen. In dieser Arbeit werden ein Überblick und die Implementierungsergebnisse des Konzepts Knowledge Forge vorgestellt. Das entwickelte Konzept wurde erfolgreich für die Darstellung und Verwaltung von Arbeitsplatzwissen (Kompetenzen) eingesetzt, insbesondere zur Bewertung von Fähigkeiten und Qualifikationen von Talenten. Darüber hinaus kann es verwendet werden, um die Kompetenzprofile von Absolvent*innen und Studierenden zu modellieren, deren Kompetenzlücken zu identifizieren und passende Lernressourcen zuzuordnen, um deren Wettbewerbsfähigkeit zu erhöhen. Die Knowledge Forge lässt sich leicht auf eine Vielzahl weiterer Anwendungen erweitern, um neue Wissensformate und Anwendungsbereiche zu integrieren. Dabei können neue Formate eigene grafische Oberflächen und Methoden verwenden, ohne dass Änderungen am Gesamtsystem notwendig sind. Das Hauptziel dieser Forschung besteht darin, Fachkräfte und Wissensingenieur*innen in die Lage zu versetzen, unterschiedliche Wissensformate (z. B. auch unstrukturiertes Wissen) zu suchen, bearbeiten und miteinander zu verknüpfen. Weder Nutzerinnen noch Administratorinnen müssen sich um das Datenformat kümmern – die Suchfunktion liefert optimierte Ergebnisse aus allen gespeicherten Daten, ergänzt durch externe Treffer aus Websuchmaschinen. Das Ergebnis dieser Arbeit ist ein Framework für alle KaaS-Zwecke. Auch wenn der aktuelle Einsatzbereich noch begrenzt ist, bildet es die Grundlage für neue Anwendungen in verschiedenen Bereichen. Zukünftige Arbeiten können die Funktionalität erweitern oder den Anpassungsprozess vereinfachen, um sogar Endnutzer*innen zu befähigen, eigene Anwendungen zu erstellen.
Mahdi Bohlouli, Sebastian Hellekes 2020 | IEEE International Conference on Big Data (Big Data)
Chronische Nierenerkrankung (CKD) gilt zunehmend als ernstzunehmendes Gesundheitsrisiko, insbesondere in Entwicklungsländern, in denen eine angemessene medizinische Behandlung häufig mit hohen Kosten verbunden ist. Daher gewinnt die frühzeitige Vorhersage von CKD, um die Nieren zu schützen und das Fortschreiten der Erkrankung zu verlangsamen, zunehmend an Bedeutung für Ärztinnen und Wissenschaftlerinnen. Das Internet der Dinge (IoT) bietet als effektives Paradigma, mit kostengünstigen Körpersensoren und intelligenten medizinischen Multimediageräten, eine wichtige Grundlage für die Fernüberwachung der Nierenfunktion, insbesondere in Regionen mit eingeschränktem Zugang zu medizinischer Versorgung. Zur Erreichung dieses Ziels wird in dieser Arbeit ein diagnostisches Vorhersagemodell für CKD und deren Schweregrad vorgeschlagen, das auf IoT-basierten Multimediadaten aufbaut. Da sowohl die Einflussfaktoren auf CKD vielfältig als auch die Datenmengen aus IoT-Multimediageräten sehr groß sind, werden relevante Merkmale basierend auf klinischen Beobachtungen, ärztlicher Erfahrung sowie bestehender Fachliteratur ausgewählt. Diese Merkmalsauswahl erfolgt gezielt für verschiedene Gruppen von Multimediadaten, um die Leistungsfähigkeit der CKD-Vorhersage und Schweregradeinstufung mithilfe verschiedener Klassifikationsverfahren zu evaluieren. Die experimentellen Ergebnisse zeigen, dass das eingesetzte Datenset in Kombination mit den vorgeschlagenen Merkmalen eine Genauigkeit von 97 %, eine Sensitivität von 99 % und eine Spezifität von 95 % erreicht, unter Anwendung des Entscheidungsbaum-Klassifikators (J48). Im Vergleich zu anderen Klassifikatoren wie Support Vector Machine (SVM), Multi-Layer Perceptron (MLP) und Naive Bayes schneidet dieses Modell signifikant besser ab. Zudem konnte mit dem vorgeschlagenen Merkmalsset auch die Ausführungszeit gegenüber anderen Datenkombinationen deutlich verbessert werden.
Mehdi Hosseinzadeh, Jalil Koohpayehzadeh, Ahmed Omar Bali,Parvaneh Asghari, Alireza Souri, Ali Mazaherinezhad,Mahdi Bohlouli, Reza Rawassizadeh
2020 | Multimedia Tools and Applications
Die Ausreißererkennung hat in verschiedenen Bereichen, insbesondere im Zusammenhang mit Maschinellem Lernen und Künstlicher Intelligenz, besondere Aufmerksamkeit erhalten. Anomalien, als ausgeprägte Ausreißer, werden üblicherweise in Punktanomalien, kontextbezogene Anomalien und kollektive Anomalien unterteilt. Zu den größten Herausforderungen bei der Erkennung solcher Ausreißer zählen die feine Grenze zwischen entlegenen Punkten und regulären Datenbereichen, die Tendenz neuer oder verrauschter Daten, reale Muster zu imitieren, das Arbeiten mit ungelabelten Datensätzen sowie unterschiedliche Definitionen von Ausreißern je nach Anwendungsgebiet. Zur gezielteren Lösung dieser Herausforderungen wurden in dieser Arbeit zwei neue Typen von Anomalien eingeführt: die Collective Normal Anomaly und die Collective Point Anomaly. Ziel ist es, die Erkennung subtiler Übergänge zwischen unterschiedlichen Anomaliearten zu verbessern. Dafür werden grundlegende, domänenunabhängige Methoden zur Detektion dieser neuen Anomalietypen vorgestellt sowohl für überwachte als auch für unüberwachte Datensätze. Zur Erkennung wurde das klassische Multi-Layer-Perceptron (MLP) neuronale Netzwerk mithilfe eines Genetischen Algorithmus erweitert. Diese Kombination ermöglicht eine präzisere Identifikation der definierten Anomalien bei gleichzeitig geringerer Testfehlerquote im Vergleich zu konventionellen MLP-Netzen. Experimente auf Benchmark-Datensätzen bestätigen die Leistungsfähigkeit des vorgeschlagenen Ansatzes und zeigen eine signifikante Reduktion der Fehlerquote im Vergleich zu bestehenden Verfahren.
Rasoul Kiani, Amin Keshavarzi, Mahdi Bohlouli2020 | The Applied Artificial Intelligence Journal
Die Spracherkennung hat in den letzten Jahren durch moderne Verfahren des Maschinellen Lernens, insbesondere Deep Learning, und durch Benchmarks mit umfangreichen Annotationen erhebliche Fortschritte gemacht. Trotzdem ist die Forschung in Bezug auf formale Sprachen mit geringen Ressourcen weiterhin begrenzt. Ein besonders deutlicher Mangel zeigt sich bei der Beschreibung und Verarbeitung umgangssprachlicher Varianten, insbesondere solcher niedrig-resourcierter Sprachen wie Persisch. Um diese Lücke gezielt anzugehen, schlagen wir das „Large Scale Colloquial Persian Dataset“ (LSCP) vor. LSCP ist hierarchisch aufgebaut in einer semantischen Taxonomie und konzentriert sich auf das umfassende Problem der Multi-Task-Verarbeitung informeller persischer Sprache. Das Ziel ist die Erkennung mehrerer semantischer Aspekte in Sätzen auf menschlichem Niveau, wie sie natürlich in realen Kontexten vorkommen. Wir sind überzeugt, dass weitere Forschung, gezielte Vorverarbeitung sowie der Einsatz neuartiger Algorithmen und Verfahren dazu beitragen können, das computerbasierte Sprachverständnis für Low-Resource-Sprachen wie Persisch deutlich zu verbessern. Das vorgeschlagene Korpus umfasst 120 Millionen Sätze, die aus 27 Millionen Tweets generiert wurden. Die Daten wurden annotiert mit Syntaxbäumen (Parsing Trees), Wortarten (POS-Tags), Sentiment-Polarität sowie Übersetzungen in fünf verschiedene Sprachen.
Hadi Abdi Khojasteh, Ebrahim Ansari and Mahdi Bohlouli2020 | the 12th Language Resources and Evaluation Conference (LREC)
Dieses Buch präsentiert herausragende theoretische und praxisorientierte Erkenntnisse aus der Datenwissenschaft sowie angrenzenden interdisziplinären Bereichen. Ziel ist es, aufzuzeigen, wie datenwissenschaftliche Forschung Gesellschaft und Industrie positiv transformieren kann, gestützt auf Erkenntnisse aus der Grundlagenforschung. Die behandelten Themen reichen von reiner Data Science über Fake-News-Erkennung bis hin zum Internet der Dinge im Kontext von Industrie 4.0. Datenwissenschaft ist ein rasant wachsendes Feld und vereint als Beruf eine Vielzahl von Disziplinen von Statistik, Mathematik und Maschinellem Lernen bis hin zu angewandter Big-Data-Analyse. Laut Forbes war „Data Science“ im Jahr 2017 der am schnellsten wachsende Beruf auf LinkedIn. Das Buch enthält eine Auswahl an Beiträgen der International Conference on Contemporary Issues in Data Science (CiDaS 2019), einer praxisorientierten Fachkonferenz, die als echter „Workshop“ konzipiert war: Ein Ort, an dem Wissenschaftlerinnen Ideen austauschen, neue Kooperationen eingehen und zentrale Herausforderungen gemeinsam diskutieren konnten und an dem Expertinnen aus der Industrie neueste Lösungsansätze für konkrete Data-Science-Probleme kennenlernten. Dank seines breiten inhaltlichen Spektrums richtet sich das Buch nicht nur an Data Scientists und Forschende anderer Fachrichtungen, sondern auch an Fachleute aus der Industrie, politische Entscheidungsträger*innen und Verwaltung.
Mahdi Bohlouli, Bahram Sadeghi Bigham, Zahra Narimani, Mehdi Vasighi, Ebrahim Ansari2020 | Springer Verlag, Berlin