von Diana Kruse

Wir Quality Specialists schauen nicht nur über den teameigenen Tellerrand, indem wir uns in bereichsweiten Formaten wie QS-OpenSpace, QS-Conventions und Fokusgruppen rund um das Thema Qualität austauschen. Wir strecken unsere Fühler auch konzernweit und über den Konzern hinaus aus.

In diesem Beitrag möchte ich kurz über die QConf sprechen, der jährlichen konzernweiten Konferenz für alle Software-Qualitäts-Interessierten der otto group.

Seit dem letzten Jahr haben sich die einzelnen IT-Bereiche stark weiterentwickelt. Konzernweit spiegelt sich in etwa das wider, was ich auch am Markt verfolge: Es gibt Bereiche, die noch am Anfang stehen, was agile Software(Qualitäts)Prozesse angeht. Andere, wie wir bei otto.de, leben und verändern diese schon seit einigen Jahren.

Die QConf in Zahlen

750
Feedbackzettel
70
aktive Teilnehmer
17
Stunden Softwarequalität
16
Speaker / Workshopleader
4
Sponsoren
4
Orgas
1
riesiger Raum
Jeder Bereich steht somit vor anderen Herausforderungen und doch macht uns ein Gedanke alle gleich:

„Wie können wir unterstützen, dass qualitativ hochwertige Software an unsere Kunde geliefert wird?“

Von Natalie Volk, Finn Lorbeer, Diana Kruse, und Torsten Mangner

Bei otto.de gibt es in jedem Cross-Functional-Team mindestens eine Testerin / Testmanagerin / QA / QSlerin… wie auch immer man die Rolle der Person bezeichnet, die Bewusstsein für Qualität schaffen soll.

Bisher dominierte die Bezeichung „Testmanagerin“ – ein sehr hölzerner, bürokratisch klingender Titel. Dieser sollte deutlich machen, dass die Rolle mehr tut, als nur Tests durchzuführen: Sie managed Tests! Mittlerweile ist auch das managen von Tests nur noch ein kleiner Teil des Mehrwerts, den wir im Team erbringen.

Whenever we present how we release features and deploy our code in one of OTTOs core functional teams, we are met with a certain set of questions, e.g..: “Why do you want to deploy more than once a week?”, “If you automate release and test management, what are the release and test managers doing?”, “How can we prevent major bugs to enter the shop?”, “Where is the final control instance to decide if something goes live?”, or the typical question “Who is responsible if something breaks?” or simply “Why the heck would someone want to do this?”

Let us answer those questions. Let us guide you through our way of working. Let us show you what processes we have (and which ones we do not have) and give you a hint on how to increase productivity and quality at the same time (without firing the test manager). All you have to do is to sit back, relax and let go of your concerns to lose control. Don’t worry, you won’t lose it.

Introduction

Performance has become critical to the success of websites, and of e-commerce sites in particular. With customers expecting web pages to load increasingly faster, they will often lose patience, especially in a purchase process, if they have to wait for too long. The key question is figuring out how long each of the various pages can be allowed to take – at maximum – to load and present relevant content in the browser.

This leads to the next question: what is the relevant page content? What are the must-have elements, and which functions have to be accessible in order for the page to catch and retain the user’s attention? At OTTO we have been engaging with these questions for a number of years, and have made some interesting discoveries during this time.

OpenSpeedMonitor-on whiteIn this process, iteratec has been assisting us in designing the concept and taking the system into practice. Our collaboration over the past two years has produced a tool for measuring the performance of websites: the OpenSpeedMonitor, which we would like to introduce here.

Logo Velocity

Uwe Beßle and Nils Kuhn from iteratec will be presenting the tool on November 18-th at the Velocity Europe Conference event. In this first part of our interview, they give us an overview of the OpenSpeedMonitor tool and a taste of their Lightning Talk in Barcelona.

Null Toleranz für Fehler: Wie wir auf otto.de die Qualität hoch halten
von Robert Breetzmann, Stephan Kraus und Christian Stamm

Wie schafft man dutzende Live-Deployments pro Woche auf einer der größten E-Commerce-Plattformen in Europa? Um permanent neue Features und Korrekturen ausliefern zu können, wird eine wesentliche Ingredienz benötigt: automatisierte Qualität. Mit unserer Geschichte eines Bugs verfolgen wir in diesem Artikel eine konkrete Fehlerbehebung auf otto.de und geben praktische Tipps für Qualität in der agilen Softwareentwicklung.

In der Ausgabe Juli/August 2014 des OBJEKTspektrum haben wir zum Schwerpunktthema „Qualität“ einen Artikel veröffentlicht, in dem wir beschreiben, wie wir die Softwarequalität auf otto.de dauerhaft hoch halten und somit in der Lage sind, schnell Veränderungen auf der Plattform in Produktion zu bringen.

Fast feedback is a cornerstone of agile software development. When developing the LHOTSE project at Otto, we tried to be as agile as possible and many of our means and methods revolve around fast feedback. Here is a list of my favourite things we do to foster fast feedback. It does not at all cover everything we do in our daily work, let alone everything one possibly could do.

All methods have one thing in common: They try to let the development team know as early as possible when things are going into the wrong direction. The key hypothesis is: The sooner you recognize a mistake, the easier it is to fix it. If you introduce a bug in the software, it is easiest to fix it right away, when you still know what you where doing and when you can associate the bug with the small change you just did. When you learn about a bug later, you first have to identify the change that introduced it, then try to remember the intentions of that change. When adjusting the change, you have to be careful not to break anything that was built on top of it later.

Ich finde es immer wieder interessant, wie kreativ einige Fragestellungen lösbar sind. Ein Beispiel dafür sind die Tests für die in den Shop integrierte Recommendation Engine eines externen Herstellers. Natürlich wollen wir nicht nur wissen, ob die Integration technisch gelungen ist, sondern auch, ob die Performance und die Fachlichkeit stimmt. Zu diesem Thema hat mir Matthias aus meinem Team eine interessante Story erzählt, die ich Euch nicht vorenthalten möchte:

Mein aktuelles Spezialgebiet sind Produktempfehlungen. Damit meine ich vor allem Empfehlungen wie „Kunden interessiert auch“ oder „Wird zusammengekauft mit“. Meistens muss ich dann eine von zwei Fragen beantworten: „Warum sehe ich diese Empfehlung?“ und „Warum sehe ich diese Empfehlung nicht?“. Bei redaktionell gepflegten Empfehlungen ist das noch vergleichsweise einfach nachzuvollziehen. Schwieriger ist das bei Empfehlungen, die auf dem Klick- und Kaufverhalten der Kunden basieren. Aber auch das ist möglich.