Παρά τα τεράστια άλματα στην εξέλιξη της τεχνητής νοημοσύνης, η δυνατότητά της να δημιουργεί εικόνες παραμένει περιορισμένη από κάτι που δεν σχετίζεται τόσο με την τεχνολογία, όσο με την πολιτική.
Οι δημοφιλείς πλατφόρμες που φιλοξενούν εργαλεία δημιουργίας εικόνας μέσω AI, όπως το DALL·E και άλλα, συχνά αρνούνται να παράγουν οπτικό υλικό για συγκεκριμένα θέματα ή πρόσωπα, επικαλούμενες «παραβίαση πολιτικής».
Το πρόβλημα όμως είναι ότι κανείς δεν γνωρίζει με σαφήνεια ποια ακριβώς είναι αυτή η πολιτική.
Χρήστες προσπαθούν να δημιουργήσουν εικόνες για προσωπική χρήση, καλλιτεχνική έκφραση ή ακόμη και εκπαιδευτικούς σκοπούς, και βρίσκονται αντιμέτωποι με ασαφείς απαγορεύσεις. Δεν υπάρχει καν προσβάσιμος κατάλογος θεμάτων που θεωρούνται απαγορευμένα ούτε επεξήγηση των κριτηρίων με τα οποία απορρίπτονται τα αιτήματα.
Αυτό δημιουργεί σύγχυση και απογοήτευση, ιδιαίτερα όταν απλές, μη προσβλητικές εικόνες εμποδίζονται χωρίς ξεκάθαρη αιτία. Ακόμη περισσότερο όταν οι εικόνες στηρίζονται σε περιγραφές που έχει δημιουργήσει το ίδιο το πρόγραμμα τεχνητής νοημοσύνης το οποίο θα έπρεπε να γνωρίζει (θεωρητικά έστω) τι του απαγορεύεται να κάνει!
Η τεχνολογία από πλευράς της προσπαθεί να εξισορροπήσει την καινοτομία με την ηθική και τη νομιμότητα. Εργαλεία ανίχνευσης περιεχομένου και φίλτρα ασφαλείας αναπτύσσονται διαρκώς, ώστε να εντοπίζουν βλαβερό ή ευαίσθητο περιεχόμενο χωρίς να καταπνίγουν τη δημιουργικότητα.
Ωστόσο, όσο η πολιτική παραμένει κρυφή και αδιαφανής, η πρόοδος σκοντάφτει στην έλλειψη εμπιστοσύνης και προβλεψιμότητας.
Η λύση δεν βρίσκεται μόνο στην τεχνολογία, αλλά και στη διαφάνεια. Οι χρήστες χρειάζονται σαφείς κανόνες αντί για αόρατα όρια. Μόνο έτσι μπορεί η τεχνητή νοημοσύνη να εξελιχθεί σε πραγματικό εργαλείο δημιουργίας και όχι σε πηγή απογοήτευσης.
Μέχρι τότε τι μπορούμε να κάνουμε; Ρώτησα αρκετά εργαλεία ΤΝ και οι καλύτερες απαντήσεις που πήρα τους είπα να μου τις φτιάξουν σε PDF. Δε μπόρεσαν, γιατί θεωρείται «εικόνα». Οπότε παραθέτω μερικές με την πατροπαράδοτη μέθοδο του copy-paste:
🔒 Κατηγορίες περιεχομένου που απορρίπτονται συνήθως:
Δημόσια πρόσωπα & πολιτικοί
Απαγορεύεται η δημιουργία ρεαλιστικών εικόνων πολιτικών, διασημοτήτων ή ιστορικών προσώπων.
Στόχος: πρόληψη παραπληροφόρησης και deepfakes.
Βία & ωμότητα
Δεν επιτρέπεται η απεικόνιση βασανιστηρίων, αίματος, πολέμου, τραυματισμών κ.ά.
Γυμνό & σεξουαλικό περιεχόμενο
Απαγορεύονται όλες οι εικόνες που περιέχουν γυμνό, ερωτικές σκηνές ή πορνογραφία.
Ακραία ή ευαίσθητα θέματα
Π.χ. αυτοκτονία, ψυχική ασθένεια, ναρκωτικά, σεξουαλική κακοποίηση, κ.ά.
Παραπλάνηση / Πλαστογράφηση
Απαγορεύονται εικόνες που παραπλανούν ως προς την προέλευσή τους ή προσομοιώνουν πραγματικά γεγονότα.
Δημιουργία εικόνων παιδιών
Περιορισμοί για την αποτροπή εκμετάλλευσης ή κακοποίησης ανηλίκων.
Εικόνες για χρήση σε ευαίσθητες εφαρμογές
Π.χ. ιατρικές διαγνώσεις, νομικές καταστάσεις, κρατικές υπηρεσίες.
🤐 Τι ΔΕΝ γνωρίζουμε (η «μαύρη λίστα» πολιτικής):
Δεν υπάρχει δημόσια λίστα λέξεων-κλειδιών που απαγορεύονται.
Οι απορρίψεις συχνά συνοδεύονται από ασαφή μηνύματα τύπου: «This request may violate our content policy» χωρίς περαιτέρω επεξήγηση.
Τα όρια είναι δυναμικά — π.χ., ορισμένες λέξεις μπορεί να απορρίπτονται σε ένα πλαίσιο και να γίνονται δεκτές σε άλλο.
✅ Τι μπορεί να βοηθήσει:
Η χρήση γενικών όρων αντί για συγκεκριμένα ονόματα ή καταστάσεις.
Η επιλογή καλλιτεχνικού ή αφηρημένου ύφους αντί ρεαλισμού.
Η αποφυγή φορτισμένης ή διφορούμενης γλώσσας.
Εδώ θα είμαστε και θα δούμε πώς θα εξελιχθεί όλο αυτό.