Paar dagen geleden OpenAI heeft bekendgemaakt dat DALL-E 2, het kunstmatige intelligentiesysteem dat afbeeldingen uit een advertentie kan genereren of bestaande afbeeldingen kan bewerken en verfijnen, Nu beschikbaar in bètaversie en dat het ook de toegang van klanten op de wachtlijst zal versnellen met als doel om de komende weken ongeveer 1 miljoen mensen te bereiken.
Met deze "bèta"-release, DALL-E 2, die gratis te gebruiken was, zal het overgaan naar een tariefstructuur op basis van kredieten. Nieuwe gebruikers krijgen een beperkt aantal credits die kunnen worden gebruikt om een afbeelding te genereren of te bewerken of om een variatie op een afbeelding te maken.
OpenAI heeft aangekondigd dat: Ik zou meer mensen uitnodigen om het te proberen, omdat het van plan is om de komende weken tot 1 miljoen mensen van de wachtlijst binnen te laten terwijl het van de onderzoeksfase naar de bètafase gaat.
Het is onduidelijk of DALL-E ooit volledig beschikbaar zal zijn voor het publiek, maar de uitbreiding zal naar verwachting een grote test voor het platform zijn, waarbij veel onderzoekers zullen monitoren hoe de technologie zal worden misbruikt.
OpenAI heeft DALL-E nauwlettend in de gaten gehouden uit angst voor kwaadwillende personen die deze krachtige tool gebruiken om verkeerde informatie te verspreiden. Stel je voor dat iemand het probeert te gebruiken om beelden van de oorlog in Oekraïne te fabriceren of om realistische beelden te maken van natuurrampen die nooit hebben plaatsgevonden. Ook kost het bouwen van een afbeelding met het platform zoveel stroom dat bedrijfsfunctionarissen vreesden dat de servers zouden falen als te veel mensen het tegelijkertijd zouden proberen te gebruiken.
Naast een aantal andere nieuwe features, het belangrijkste verschil met dit tweede model is een geweldig verbeterde beeldresolutie, lagere latenties (de tijd die nodig is om de afbeelding te maken) en een slimmer algoritme om de afbeeldingen te maken.
De software creëert niet alleen een afbeelding met een unieke stijl, kan verschillende kunsttechnieken toevoegen als uw verzoek, het invoeren van tekenstijlen, olieverfschilderijen, boetseerklei, wolbreiwerk, getekend op een grotmuur of zelfs als een filmposter uit de jaren 60.
Er zijn ook manieren om Dall-E te stimuleren om content te produceren. die de term probeert te filteren. Terwijl het bloed het geweldfilter zou activeren, zou een gebruiker "een plas ketchup" of iets dergelijks kunnen typen in een poging het te omzeilen.
Als het gaat om de technologie rond AI-beeldvorming, lijkt het duidelijk dat deze op veel manieren kan worden gemanipuleerd: propaganda, nepnieuws en gemanipuleerde afbeeldingen komen voor de hand liggende manieren.
Om dit te vermijden, het OpenAI-team achter Dall-E heeft een beveiligingsbeleid geïmplementeerd voor alle afbeeldingen op het platform werkt het in drie fasen. De eerste stap is het filteren van de gegevens die een ernstige overtreding bevatten. Dit omvat geweld, seksuele inhoud en afbeeldingen die het team ongepast zou achten.
Naast het beveiligingsbeleid van het team, een duidelijk inhoudsbeleid hebben waaraan gebruikers zich moeten houdenWelnu, Joanne Jang, productmanager voor DALL-E, zegt dat het bedrijf zijn inhoudsbeleid nog steeds aan het verfijnen is, dat nu verbiedt wat je zou verwachten*: het creëren van gewelddadige, pornografische en haatdragende inhoud. Het bedrijf verbiedt ook afbeeldingen van stembussen en protesten,
DALL-E verbiedt ook afbeeldingen van echte mensen en is van plan meer veiligheidsmaatregelen te nemen naarmate de onderzoekers leren hoe gebruikers omgaan met het systeem.
"Op dit moment denken we dat er veel onbekenden zijn waar we beter mee om willen gaan", zei Jang. "We zijn van plan om snel op te voeren en steeds meer mensen uit te nodigen naarmate we meer vertrouwen krijgen."
Experts zeggen dat hoewel beeldalgoritmen al een tijdje bestaan, de snelheid, nauwkeurigheid en breedte van de DALL-E een opmerkelijke vooruitgang in het veld vertegenwoordigen.
“Wat DALL-E doet, is een element van de menselijke verbeelding vastleggen. Het is niet echt anders dan hoe mensen een boek kunnen lezen en zich dingen kunnen voorstellen, maar het is in staat om die intelligentie vast te leggen met een algoritme”, zegt Phillip Isola, een professor computerwetenschappen aan het MIT die eerder met Open AI werkte, maar niet langer is aangesloten bij . "Natuurlijk zijn er veel zorgen over hoe dit soort technologie kan worden misbruikt."
Eindelijk als u er meer over wilt weten, kunt u de details bekijken In de volgende link.