Μ. Σχοινάς στο 11ο Οικονομικό Φόρουμ των Δελφών: «Δεν κινδυνεύουν οι επιδοτήσεις» – Τα τρία «εργοτάξια» για τον πρωτογενή τομέα
Ο Γιάννης Ανδριανός εγκαινίασε τη FRESKON 2026
Το Επιμελητήριο Άρτας συνδιοργανώνει με τον Δήμο Αρταίων το 7ο Εργασιακό Πρωτάθλημα Καλαθοσφαίρισης Άρτας «Άρης Τσιγαρίδας»
Επιτυχημένο σεμινάριο Πρώτων Βοηθειών και ΚΑΡΠΑ στον Δήμο Αρταίων
Σε κυκλοφορία η Ε.Ο. Ιωαννίνων-Τρικάλων μέσω Κατάρας
Δήμος Αρταίων: Σταθερή στήριξη στις κοινωνικές δομές και στις διεκδικήσεις της ΚΕΔΕ

«Όταν ξεκινήσαμε αυτή την έρευνα, ήταν αμέσως μετά την κυκλοφορία της πρώτης έκδοσης του ChatGPT. Είχαμε ανησυχίες σχετικά με το πώς οι γονείς θα χρησιμοποιούσαν αυτή τη νέα, εύκολη μέθοδο για να συλλέγουν πληροφορίες για την υγεία των παιδιών τους», δήλωσε η επικεφαλής συγγραφέας της μελέτης και διδακτορική φοιτήτρια Calissa Leslie-Miller. «Οι γονείς συχνά καταφεύγουν στο διαδίκτυο για συμβουλές, οπότε θέλαμε να καταλάβουμε πώς θα ήταν η χρήση του ChatGPT και τι θα έπρεπε να μας ανησυχεί».
Για να καταλήξουν σε αυτά τα συμπεράσματα, η Leslie-Miller και οι συνάδελφοί της διεξήγαγαν μια μελέτη με 116 γονείς ηλικίας 18 έως 65 ετών, η οποία δημοσιεύθηκε πρόσφατα στο Journal of Pediatric Psychology.
Στους συμμετέχοντες δόθηκε κείμενο σχετικό με θέματα υγείας, με περιεχόμενο που δημιουργήθηκε από επαγγελματίες υγείας και από το chatbot ChatGPT της εταιρείας OpenAI. Δεν τους είπαν ποιος ήταν ο συντάκτης, και τους ζητήθηκε να αξιολογήσουν τα κείμενα με βάση πέντε κριτήρια: ηθική, αξιοπιστία, εμπειρογνωμοσύνη, ακρίβεια και πόσο πιθανό θα ήταν εκείνοι να βασιστούν στις πληροφορίες αυτές.
Σε πολλές περιπτώσεις, όπως αναφέρει ο Independent, οι γονείς δεν μπορούσαν να διακρίνουν ποιο περιεχόμενο δημιουργήθηκε από το ChatGPT και ποιο από τους εμπειρογνώμονες. Όταν υπήρχαν σημαντικές διαφορές στις αξιολογήσεις, το ChatGPT ήταν εκείνο που είχε κριθεί ως πιο αξιόπιστο και ακριβές σε σχέση με τους εμπειρογνώμονες.
«Αυτό το αποτέλεσμα μας εξέπληξε, ειδικά δεδομένου ότι η μελέτη πραγματοποιήθηκε στην αρχή της κυκλοφορίας του ChatGPT», δήλωσε η Leslie-Miller.
«Αρχίζουμε να βλέπουμε ότι η τεχνητή νοημοσύνη ενσωματώνεται με τρόπους που μπορεί να μην είναι άμεσα εμφανείς και οι άνθρωποι μπορεί να μην αναγνωρίζουν καν πότε διαβάζουν κείμενο που έχει δημιουργηθεί από AI σε σχέση με περιεχόμενο εμπειρογνωμόνων».
«Κατά τη διάρκεια της μελέτης, ορισμένα κείμενα αυτής της πρώτης έκδοσης του ChatGPT περιείχαν εσφαλμένες πληροφορίες», δήλωσε η Leslie-Miller.
«Αυτό είναι ανησυχητικό επειδή, όπως γνωρίζουμε, τα εργαλεία AI όπως το ChatGPT είναι επιρρεπή σε “παραισθήσεις” – λάθη που συμβαίνουν όταν το σύστημα δεν έχει επαρκές πλαίσιο».
