Dr Tord Riemann ukończył fizykę na Uniwersytecie Humboldtów w Berlinie. Po obronie pracy doktorskiej w 1977 roku na tym samym uniwersytecie rozpoczął pracę naukową w Instytucie Fizyki Wysokich Energii na Akademii Nauk NRD w Zeuthen. W latach 1983–87 pracował w Laboratorium Fizyki Teoretycznej w Instytucie Badań Jądrowych w Dubnej (wówczas ZSRR). Z instytutem tym nadal współpracował po powrocie do NRD, równocześnie nawiązując współpracę z ośrodkiem CERN (Europejska Organizacja Badań Jądrowych) pod Genewą. Owocem tej szerokiej współpracy był między innymi projekt ZFITTER, software powstały na podstawie obliczeń teoretycznych przeprowadzonych ze współpracownikami w Dubnej, jeden z podstawowych programów, który był wykorzystywany do analizy danych w akceleratorze LEP (Large Electron Positron Collider). ZFITTER został użyty między innymi do oszacowania masy kwarku top oraz dolnej granicy na masę bozonu Higgsa z efektów kwantowych w rachunku perturbacyjnym przed ich bezpośrednim odkryciem. W latach 1991–92 dr Tord Riemann był pracownikiem naukowym w CERN. Od 1992 roku jest związany z ośrodkiem DESY. Niemiecki naukowiec uczestniczył oraz koordynował wiele międzynarodowych projektów naukowych. Od wielu lat współpracuje z naukowcami z Instytutu Fizyki Uniwersytetu Śląskiego.
Pracował Pan w kilku ważnych ośrodkach badawczych, między innymi w Deutsches Elektronen Synchrotron (DESY) oraz w Instytucie Badań Jądrowych w Dubnej (obecnie Rosja). Jakiego typu badania tam Pan prowadził?
– Moje badania w DESY koncentrowały się głównie wokół modelu standardowego fizyki cząstek elementarnych i jego zastosowań w eksperymentach przeprowadzanych w zderzaczach cząstek. Standardowy model fizyki cząstek elementarnych opisuje podstawowe oddziaływania (elektromagnetyczne, słabe i silne) pomiędzy cząstkami elementarnymi w ramach kwantowej teorii pola. Oddziaływania te są bardzo złożone, dlatego w obliczeniach stosujemy tzw. rachunek perturbacyjny. Jest to metoda obliczeń procesów fizycznych w ramach modeli teoretycznych w oparciu o rozkład tych procesów na odpowiednie szeregi względem pewnych parametrów, w naszym przypadku określających siłę oddziaływań między cząstkami. W ten sposób przechodzimy od obliczeń najprostszych do coraz bardziej złożonych, w których bierzemy pod uwagę coraz większą liczbę elementów tego szeregu, są to tzw. poprawki kwantowe. W swoich badaniach zajmuję się obliczeniami poprawek kwantowych wyższych rzędów do podstawowych procesów badanych w akceleratorach. Dają nam one wiedzę na temat wewnętrznej struktury modelu standardowego i oddziaływań pomiędzy cząstkami elementarnymi. Z fizycznego punktu widzenia z poprawkami kwantowymi wyższych rzędów mamy do czynienia, gdy przy odziaływaniach tworzą się stany wirtualne cząstek. Wirtualnych cząstek bezpośrednio nie obserwujemy, tworzą się one samoistnie w próżni, modyfikując mierzone parametry, takie jak wspomniana już wielkość sprzężeń pomiędzy cząstkami. Myślę, że teoretyczne odkrycie znaczenia cząstek wirtualnych w mikroświecie potwierdzone obliczeniami oraz eksperymentalnie (mówimy o efektach na odległościach mniejszych od rozmiarów jądra wodoru, najprostszego atomu) było jednym z największych osiągnięć intelektualnych człowieka w XX wieku. Z wynikami tymi związanych jest zresztą kilka Nagród Nobla (m.in. Gross, Wilczek, Politzer, t’Hooft, Veltman). Takich wirtualnych cząstek może powstawać w danym procesie fizycznym bardzo wiele, wręcz nieskończona liczba, dlatego cały proces dzieli się w sposób perturbacyjny na poprawki od najniższego rzędu do coraz wyższych. Nie formułuję nowych teorii, ale dokonuję precyzyjnych obliczeń dla modelu standardowego. Technicznie oznacza to obliczanie tak zwanych diagramów Feynmana z wewnętrznymi pętlami wirtualnie wymienianych cząstek, które tworzą się, propagują i zanikają pomiędzy stanami początkowymi (cząstki, które zderzamy ze sobą) i końcowymi (obserwowanymi w eksperymencie). Obecnie obliczam poprawki pętlowe rzędu drugiego (w żargonie mówimy o drugiej pętli, ponieważ wirtualne cząstki w diagramach Feynmana na tym poziomie tworzą graficznie różne konfiguracje z dwoma pętlami). Te obliczenia są skomplikowane pod względem matematycznym. Do obliczeń stosuje się specjalne programy i techniki. Na obecnym poziomie złożoności otrzymywanych diagramów, które matematycznie są całkami, nie da się tych obliczeń w większości przypadków wykonać analitycznie, obecnie rozwijamy więc metody numeryczne. Obliczanie otrzymywanych całek jest trudne, ponieważ wirtualne efekty od propagujących się wewnątrz każdej pętli cząstek powodują powstawanie matematycznie nieskończoności. Problem polega na tym, aby pokazać – i wiemy, że tak się dzieje – iż te nieskończoności w obliczeniach można wykasować, niezbędna jest do tego tak zwana procedura renormalizacji. To jest naprawdę skomplikowane (śmiech). Otrzymujemy wówczas tylko skończone, z reguły małe poprawki – w każdym rzędzie rachunku zaburzeń coraz mniejsze, ale poprawki istotne, ponieważ eksperymenty są obecnie tak czułe, że „widzą” tego typu efekty kwantowe. Obliczenia te są fundamentalnie ważne także dla przyszłych badań, ponieważ jedynie znając tego typu poprawki, możemy poszukiwać sygnałów nowej fizyki w skali mikroświata, która mogłaby na przykład tłumaczyć problem tak zwanej ciemnej materii we Wszechświecie.
Do 1989 roku NRD prowadziło restrykcyjną politykę dotyczącą wyjazdów zagranicznych. Kiedy zatem nawiązał Pan kontakty z polskimi naukowcami, w tym z Uniwersytetu Śląskiego? Na czym polegała ta współpraca?
– Rzeczywiście, do 1989 roku miałem bardzo duże problemy z opuszczaniem kraju, nawet z wyjazdami naukowymi do krajów socjalistycznych. Z tego powodu nie mogłem przyjąć zaproszenia od profesora Marka Zrałka na XXXIII Konferencję organizowaną przez teoretyków z Katowic, która miała miejsce w Szczyrku we wrześniu 1987 roku. Konkretne kontakty z Uniwersytetem Śląskim nawiązałem w 2000 roku, gdy współpracowałem z prof. Karolem Kołodziejem. W latach 2003–2014 byłem w DESY koordynatorem projektu „Precision calculations of massive particle production processes”. Końcowy raport z tego projektu przygotowaliśmy wspólnie z prof. Januszem Gluzą, z którym nawiązałem w tym czasie współpracę i współpracuję do dzisiaj. Częścią tej współpracy jest mój projekt realizowany w Instytucie Fizyki UŚ i finansowany przez Fundację na rzecz Nauki Polskiej. Chciałbym również wspomnieć o współpracy z prof. Michałem Czakonem, obecnie profesorem RWTH w Akwizgranie, który obronił doktorat na Uniwersytecie Śląskim. Wspólnie z prof. Michałem Czakonem i prof. Januszem Gluzą zajmowaliśmy się przez kilka lat obliczaniem całek dwupętlowych w procesie Bhabhy (e- e+ → e- e+). Proces ten służy do kalibracji akceleratorów, w których zderzamy elektrony (e-) z ich antycząstkami, czyli pozytronami (e+). Wykonując te obliczenia, rozwinęliśmy nowe metody w oparciu o tzw. całki Mellina i Barnesa, które obecnie rozwijam i udoskonalam wraz z prof. Januszem Gluzą i moimi doktorantami. Chciałbym jeszcze dodać, że od kilku lat współpracuję także z innym profesorem z Instytutu Fizyki UŚ, prof. dr. hab. Henrykiem Czyżem.
Podczas sześciomiesięcznego pobytu stypendialnego realizuje Pan we współpracy z prof. dr. hab. Januszem Gluzą projekt badawczy na Wydziale Matematyki, Fizyki i Chemii UŚ. Czego on dotyczy?
– Projekt finansowany przez Fundację na rzecz Nauki Polskiej zatytułowany jest „New theoretical methods and tools for accelerator physics”. Ma on charakter interdyscyplinarny, obejmuje – oprócz badań podstawowych, stymulowanych zaawansowaną kwantową teorią pola – zagadnienia matematyczne (zespolone całki wielowymiarowe) oraz algorytmiczno-informatyczne (algebra komputerowa i precyzyjna analiza numeryczna). Obecnie istnieją dwie metody obliczeń numerycznych wielowymiarowych całek Feynmana bezpośrednio w reżimie parametrów fizycznych (tzw. przestrzeni Minkowskiego). Jedną z nich jest metoda obliczeń całek Mellina-Barnesa oparta na koncepcie wywodzącym się z analizy zespolonej zapoczątkowanym przez Ernesta Barnesa oraz Hjalmara Mellina. W ostatniej naszej pracy opublikowanej w „Physics Letter B” w ubiegłym roku pokazaliśmy (oprócz moich dwóch doktorantów oraz prof. Gluzy w obliczeniach brał udział prof. Ayres Freitas z uniwersytetu w Pittsburghu w USA), że potrafimy obliczać takie całki z dokładnością gwarantującą ich zastosowanie w obliczeniach dwupętlowych. Przy okazji domknęliśmy obliczenia obserwabli fizycznych, których od ponad dekady nikt nie był w stanie zrealizować. Jesteśmy więc obecnie w światowej czołówce precyzyjnych obliczeń teoretycznych w rachunku perturbacyjnym procesów z udziałem cząstek elementarnych i realizowany projekt ma na celu opracowanie uniwersalnych narzędzi związanych z obliczeniami tego typu całek oraz ich dalszym szerokim zastosowaniem.