Telkens als je met je ogen knippert, lijkt het alsof AI alweer tot meer in staat is. Zienderogen neemt de geloofwaardigheid van de beelden die we al promptend laten ontstaan toe. En ons gechat met AI verloopt soepeler en soepeler Maar tussen al die ontwikkelingen is er soms een gebeurtenis die de toepassingsmogelijkheden écht significant verruimt. Dat is aan de hand nu AI ‘ogen’ heeft gekregen. Met name voor een omroep is er dan sprake van 1 + 1 = 3. Want een AI die een inhoudelijke blik kan werpen op de wereld en op bewegend beeld, dat levert talloze nieuwe mogelijkheden op voor redacties en kijkers.

Voor een redactie draait het vooral om efficientie en mogelijkheden om op te schalen, door bijvoorbeeld in één middag 10.000 video’s opnieuw te bekijken met een specifieke vraagstelling. Werken met doorzoekbare video, waarbij de zoekopdrachten niet enkel beperkt zijn tot de transcribed tekst, is een handig hulpmiddel. Maar voor een kijker is streven naar efficientie niet per sé de essentie van de kijk-ervaring. Al hebben we wel een ‘KanIkVooruitSpoelen?’ button toegevoegd aan de ‘MeekijkBot’. Met die experimentele web-app verkennen we bij VPRO Medialab of er uberhaupt wel behoefte is aan een AI die met je meekijkt terwijl je de couchpotato uithangt. En omdat het toevoegen van nieuwe functies tegenwoordig een kwestie is van vertellen aan CoPilot wat je wil, ligt in deze onderzoeksfase de focus op divergeren. Talloze (te) gekke functies bedenken en dan daaruit selecteren wat nu al echt inzetbaar is. Of ontdekken waar de techniek nog een stapje moet zetten. En uiteraard komen we ook op functies terecht waar misschien helemaal niemand om vraagt. Maar is het niet een uitstekende rol voor de VPRO om binnen het AI domein ook oog te hebben voor toepassingen waar niet heel de wereld achter aan rent?

Het voorspelbare hoeven we niet verder te verkennen. Zoals de klassieke functie dat je tijdens het kijken van een video ‘meer informatie over een onderwerp’ kan opvragen. Want voordat je gaat twijfelen aan de kunst van de maker om jou een compleet programma aan te bieden, zou je niet eerst even de video uit kijken? Tenzij je twijfelt of dat nog nodig is. Een klik op de ‘KanIkVooruitSpoelen’ knop en je weet het. Maar de meeste functies in de MeeKijkBot gaan over wat je zojuist hebt gekeken, als dat het geval was. Droom je wel eens weg tijdens het kijken of luisteren? Laat de AI dan een controlevraag verzinnen op basis van wat er zich de afgelopen minuut afspeelde. Was je niet afgeleid maar begreep je het gewoon niet? Vraag de bot dan om dat stukje uit te leggen op een niveau dat wel bij je past.

Een Tegenlicht uitzending uitgelegd krijgen in Sesamstraat metaforen? Verzin het maar. Of zet je webcam aan en laat de AI even je omgeving analysere zodat de uitleg-metafoor hoogstpersoonlijk gemaakt kan wordne, gebaseren op de plek waar je je op dat moment bevindt. Hoe goed dat werkt? Als kijker speel je daarin letterlijk een belangrijke rol. Het is een leuke uitdaging om de metaforen-generator te voeden met een bruikbaar shot. Interactieve televisie zouden we dat vroeger noemen.

Waar staan we nu met de MeekijkBot? Is het al tijd om te gaan convergeren in de functionaliteit? Of valt er nog veel meer verkennen nu de mogelijkheden eindeloos zijn geworden met een AI die ogen heeft gekregen? Naast die vraag is er ook nog een meer fundamentele vraag: welke rol moet je als omroep spelen in dit snel veranderende AI landschap? Welke functionaliteit zit binnenkort standaard in elke AI enhanced videoplayer? En nemen we daar genoegen mee? Of is het belangrijk zelf een pad richting toekomstige functionaliteit te kiezen, en daarbij specifiek oog te houden voor interactieve functies waarin omroepen een eigen stem of eigen benadering kwijt kunnen?