Oracle Code Berlin 2019

16. April 2019


Am 9. April fand die Oracle Code Berlin 2019 statt, eine Konferenz, die kostenlos von Oracle ausgerichtet wurde. Auf dieser Veranstaltung ging es natürlich darum, Oracle Produkte zu vermarkten, dennoch konnten Entwickler aus den Vorträgen viel Wissenswertes über neue Technologien und Trends in der Softwareentwicklung erfahren. Von EsPresto waren darum gleich vier Java-Entwickler vor Ort und haben uns für unseren Blog ihre Gedanken zu zwei besonders interessanten Vorträgen aufgeschrieben.

Metrics for Agile Teams

Richard Fichtner von RapidClipse sprach darüber, wie sich Metriken und Erfassung von Daten innerhalb agiler Teams lohnen. Er wies darauf hin, dass Metriken NICHT die Realität sind. Sie können fehlerhaft erhoben worden sein oder – ohne vernünftigen Kontext – zu irreführenden Annahmen führen. Und dadurch auch zu fehlerhaften Reaktionen. Man sollte sich also klar darüber sein, WAS man erhebt und WIE diese Daten zu interpretieren sind. Nur dann können Metriken einen echten Mehrwert bieten.

Die den Metriken zugrundeliegenden Daten können aus unterschiedlichsten Quellen stammen.

Folie: Where is the data coming from

Zunächst einmal muss man sich vergegenwärtigen, dass die meisten Daten sowieso schon erhoben werden – man wertet sie nur noch nicht richtig aus. Beispiele für solche Quellen sind: Issuetracking Tools (Jira!), Source Control (GIT!), CI/CD Tools (Jenkins!) oder das Anwendungsmonitoring (Grafana!).
Herr Fichtner wies ausdrücklich darauf hin, dass man Datenschutzgesetze beachten muss und bei Unsicherheit mit den Datenschutzbeauftragten reden sollte, bevor man munter Daten erhebt.

Weiterhin ist es wichtig, dass es überschneidendes Know-how in Teams gibt – etwa um Urlaube, Krankheiten oder Phasen hoher Belastung von Teilaufgaben abzufangen.

Folie: Team Homogeneity

Die Stabilität des Projekts steigt, wenn die Homogenität der Team-Mitglieder steigt. Es ist daher wichtig, daran zu arbeiten, dass andere Team-Mitglieder sich zumindest zu einem gewissen Grad in das „Spezialgebiet“ anderer Team-Mitglieder einarbeiten.

Als weiteres No-Go stellte Richard Fichtner ausufernde Pull-Requests an den Pranger. Mit der Größe eines PRs steige die Dauer, bis es bearbeitet wurde, überlinear an. Entwickler bräuchten nicht nur länger, um sich in die ganzen Änderungen einzuarbeiten (Komplexität), sondern auch, um einen Termin im Arbeitskalender zu finden, an dem sie dieses große Arbeitspaket angehen können (organisatorisch). Daher sollten PRs um jeden Preis klein gehalten werden. Lieber viele kleine als wenige große. An überschaubare Arbeitspakete traut man sich erstens schneller ran und zweitens fällt die Suche und Reservierung großer Timeslots weg. Die Release-Daten müssen auch weniger nach hinten geschoben werden.
Zusammenfassend kann gesagt werden, dass interessante Daten in den allermeisten Fällen schon da sind. Sie müssen nur noch präzise genutzt werden. Der wahre Wert liege für IT-Firmen aber nicht in den Daten selbst, sondern in der Diskussion über die gewonnenen Auffälligkeiten in den erstellten Metriken.

Women in Technology Panel: Diversity and AI – How Can We Prevent Our Biases from Creeping into AI

Folie: Unvoreingenommene Künstliche Intelligenz

Dieser Talk, an dem vier Frauen und ein Mann teilnahmen, behandelte prinzipiell zwei große Themen. Zum einen ging es um die voranschreitende Entwicklung künstlicher Intelligenz und wie diese „gefüttert“ wird. Ein Problem dabei ist, dass künstliche Intelligenzen sehr viele Informationen verwenden, die naturgemäß aus der Vergangenheit stammen, als gesellschaftliche Geschlechterdifferenzen und Vorurteile gegenüber Ethnien prekärer waren als heute. Die rein logisch agierenden Algorithmen treffen dann mathematisch errechnete Aussagen oder Prognosen und erzeugen aufgrund der Datenlage Vorurteile oder spiegeln diese schlicht wider, weil sogar bewusst menschengemachte Vorurteile deutlichen Einfluss haben können. Besonders betroffen sind davon Frauen und etwa dunkelhäutige Menschen. Ein praktisches Beispiel verdeutlicht das: Früher waren in der Forschung fast nur Männer relevant. Eine KI könnte irrtümlicherweise daraus schließen, dass Frauen wenig geeignet für führende Positionen in Wissenschaft und Forschung seien. Selbst rein ökonomisch gesehen ist der Verlust von Potenzialen und Know-how offensichtlich – von Ethik und Moral ganz zu schweigen.

Es stellt sich nun die Frage, wie man diese Fehlschlüsse verhindern kann. Hierfür wurden ein paar Ansätze genannt. Ein Hauptansatz war, die verfügbaren Daten zu ändern. Beispielsweise würde es helfen, wenn relevante Texte durchgehend gendergerechte Sprache verwenden, wie etwa das geschlechtlich inklusive Benennen von Berufsbezeichnungen, Positionen, Ämtern oder Menschengruppen.
Ein anderer Ansatz war, dass eine hohe Diversität der Entwicklungs-Teams dem Produkt, der KI, gut tun würde. Hier wurde auch allgemein appelliert, dass sich mehr Frauen technisches Wissen und Fertigkeiten aneignen müssen, um entsprechende Macht- und Schlüsselpositionen in Berufen der digitalen Technologie erlangen zu können. Dabei müssen sich Frauen auch besser auf verschiedenen Ebenen verteilen, bzw. es muss generell mehr Heterogenität in der technischen Berufswelt entstehen.

(Westliche) Künstliche Intelligenz wird vornehmlich von Militär und Unternehmen entwickelt, die wiederum vor allem mit dem asiatischen Raum in Konkurrenz stehen. Hier zählt vor allem gnadenlose Effizienz und das Erreichen klar spezifizierter Ziele. Es braucht an dieser Stelle den Input der Gesellschaft von außen. Hier wurde der Begriff „Crowd-Jacking“ als „New Power“ eingeführt. Es geht darum, den Diskurs als Gesellschaft zu übernehmen. Man sollte sich und andere darüber informieren, dass Algorithmen veränderlich sind und dass bestimmt werden kann, wie diese Algorithmen aussehen. Dies muss allerdings von uns allen eingefordert werden. Zudem sollten tiefgreifende Algorithmen transparent offengelegt sein. Hier stellte sich auch die Frage, inwiefern man menschliche Sensibilität in KI einbauen kann.

Interessant war noch noch der Einwurf, dass die deutsche Automobilindustrie offenbar so viel Subventionen abgreift, dass für andere Bereiche wie eben die Förderung von KI-Entwicklung in Deutschland nicht mehr viel übrig bleibt. Hintergrund dessen war, dass eine der Sprecherinnen das deutsche Potential für Gesellschaftswissenschaften und Philosophie ansprach, die sich intensiv mit Moral, Ethik, Datenschutz und Menschenrechten auseinandersetzen wird. Dieses Potenzial fließe gegenwärtig kaum in den Bereich der KI-Entwicklung mit ein.