Profesor od fake newsów. Bydgoski naukowiec bada sztuczną inteligencję

Na Politechnice Bydgoskiej prowadzi badania na temat fake newsów, sztucznej inteligencji. Niedawno znalazł się w gronie najczęściej cytowanych naukowców na świecie. Teraz Michał Choraś uzyskał tytuł profesora.

Tytuły pana prac brzmią bardzo skomplikowanie i technicznie. Czym, mówiąc najprościej, się pan zajmuje?

– Prof. Michał Choraś, kierownik  Zakładu Systemów Teleinformatycznych Wydziale Telekomunikacji, Informatyki i Elektrotechniki PBŚ: – Nowymi metodami i zastosowaniami sztucznej inteligencji. W szczególności rozpoznawaniem wzorców i uczeniem maszynowym.

Czyli?

– Często jest tak, że dokładnie wiemy, co i jak ma zrobić komputer – znamy przepis, czyli algorytm i zamieniamy go na program komputerowy. W wielu jednak przypadkach mamy dane, jakiś problem, ale nie wiemy, jak go rozwiązać. Brakuje przepisu. Wtedy właśnie stosujemy mechanizmy uczenia maszynowego i sztucznej inteligencji, by maszyna znalazła rozwiązanie. Problemy, które próbujemy rozwiązać w naszym zespole badawczym to między innymi wykrywanie ataków sieciowych, anomalii w systemach komputerowych oraz wykrywanie fake newsów.

W zeszłym roku został pan sklasyfikowany na liście TOP 2%, prestiżowego rankingu najczęściej cytowanych naukowców. Jak udało się panu przebić do elity?

– Trzeba publikować w zagranicznych, renomowanych czasopismach, a nie tych lokalnych. Sama liczba cytowań bierze się z tego, jak mocno prace rezonują w środowisku naukowym i są przydatne dla innych. Jeśli napiszę coś ciekawego i nowatorskiego, inni będą się na mnie powoływać.

Pisze pan sam?

– Przeciwnie. Wiele osób myśli, że naukowcy piszą indywidualnie. Mój przykład pokazuje, że siła tkwi w pracy zespołowej i zaangażowaniu grupy. Wzajemnie się motywujemy i pomagamy. W tym

miejscu chciałbym serdecznie podziękować moim współpracownikom i kolegom za wspólną pracę i naukową przygodę. Jestem pewien, że w najbliższych latach kolejne osoby z zespołu zdobędą stopnie i tytuły naukowe oraz trafią na podobne listy.

Nie do przecenienia jest oczywiście miłość, wsparcie i kibicowanie w domu, za co żonie i córeczce każdego dnia dziękuję. Jest pan liderem grupy Pattern Recognition and Applied Security – PATRAS.

Co to takiego?

– Nieformalny zespół badawczy, którym kieruję od kilku lat. Na uczelniach zazwyczaj mamy dość sztywną strukturę z wydziałami, instytutami i katedrami czy zakładami. Nasza grupa jest ponad tymi podziałami. Unikamy formalności. Doktoranci są z profesorem na „ty”. Wszyscy mają prawo do wyrażania swoich opinii.

Zachęcam, by krytykować pomysły profesorów i przedstawiać własne. Działamy całkowicie inaczej, niż w formalnych jednostkach, gdzie często mamy od lat tego samego „nieomylnego” profesora, a młodsi badacze muszą go ślepo słuchać. Dodam jeszcze, że pijemy dużo dobrej kawy…

Zajmuje się Pan także fake newsami? Gdzie tutaj pole badań dla inżyniera?

– Analizujemy tekst pod kątem sposobu jego napisania, np. czy zawiera emocje. Stosujemy m.in. mechanizmy analizy tekstu oraz głębokie sieci neuronowe. Chcemy dać użytkownikom – w tym m.in. dziennikarzom, jak w projekcie SocialTruth – narzędzie, które może wstępnie ostrzec, że dany tekst nosi znamiona fake newsa. Nasze mechanizmy nie zastępują człowieka, ani nie podejmują żadnych decyzji. Mają jedynie pomóc we wskazaniu, który tekst może być podejrzany. Mogą pomóc każdemu użytkownikowi internetu. W badaniach uwzględniamy aspekty etyczne i demokratyczne, by nie ograniczać wolności słowa.

Pisał pan m.in. o zagrożeniach hybrydowych. Jak je wykryć?

– Tworzymy do tego narzędzia.  Chcemy łączyć metody wykrywania anomalii i zagrożeń, w tym ataków sieciowych i fake news, w spójny mechanizm. Pracujemy nie tylko nad mechanizmami sztucznej inteligencji i ich zastosowaniami, ale także nad rozwiązaniem jej wyzwań i ograniczeń. Chodzi o bezpieczeństwo samych algorytmów i modeli, wyjaśnialność i aspekty etyczne związane z odpowiedzialnością społeczną technologii.

Udostępnij: Facebook Twitter