Eνώ η τεχνητή νοημοσύνη προσφέρει την υπόσχεση μείωσης του κόστους, βελτίωσης της αποδοτικότητας, εντοπισμού πιο περίπλοκων σχέσεων και βελτίωσης της απόδοσης και της ακρίβειας, μπορεί επίσης να «εισαγάγει ορισμένους κινδύνους, συμπεριλαμβανομένων των κινδύνων ασφάλειας και ευρωστίας, όπως οι κίνδυνοι στον κυβερνοχώρο και τα μοντέλα», ανέφερε η FSOC στην ετήσια έκθεση της. έκθεση που δόθηκε στη δημοσιότητα την Πέμπτη.
Το Συμβούλιο Εποπτείας Χρηματοπιστωτικής Σταθερότητας - ESOC, των ΗΠΑ υποστηρίζει ότι η αναδυόμενη τεχνολογία εγκυμονεί «κινδύνους για την ασφάλεια και την ευρωστία» καθώς και οφέλη.Οι χρηματοπιστωτικές ρυθμιστικές αρχές στις Ηνωμένες Πολιτείες έχουν χαρακτηρίσει για πρώτη φορά την τεχνητή νοημοσύνη (AI) ως κίνδυνο για το χρηματοπιστωτικό σύστημα.
Στην τελευταία ετήσια έκθεσή του, το Συμβούλιο Εποπτείας Χρηματοπιστωτικής Σταθερότητας - FSOC, δήλωσε ότι η αυξανόμενη χρήση της τεχνητής νοημοσύνης στις χρηματοπιστωτικές υπηρεσίες είναι μια «τρωτότητα» που πρέπει να παρακολουθείται.
Ενώ η τεχνητή νοημοσύνη προσφέρει την υπόσχεση μείωσης του κόστους, βελτίωσης της αποδοτικότητας, εντοπισμού πιο περίπλοκων σχέσεων και βελτίωσης της απόδοσης και της ακρίβειας, μπορεί επίσης να «εισαγάγει ορισμένους κινδύνους, συμπεριλαμβανομένων των κινδύνων ασφάλειας και ευρωστίας, όπως οι κίνδυνοι στον κυβερνοχώρο και τα μοντέλα», ανέφερε η FSOC στην ετήσια έκθεση της. έκθεση που δόθηκε στη δημοσιότητα την Πέμπτη.
Η FSOC, η οποία ιδρύθηκε στον απόηχο της χρηματοπιστωτικής κρίσης του 2008 για τον εντοπισμό υπερβολικών κινδύνων στο χρηματοπιστωτικό σύστημα, είπε ότι οι εξελίξεις στην τεχνητή νοημοσύνη θα πρέπει να παρακολουθούνται για να διασφαλιστεί ότι οι μηχανισμοί εποπτείας «λογαριάζουν τους αναδυόμενους κινδύνους», ενώ διευκολύνουν την «αποτελεσματικότητα και την καινοτομία».
Οι αρχές πρέπει επίσης να «εμβαθύνουν την τεχνογνωσία και την ικανότητα» να παρακολουθούν το πεδίο, ανέφερε η FSOC.
Η υπουργός Οικονομικών των ΗΠΑ Janet Yellen, η οποία προεδρεύει του FSOC, είπε ότι η απορρόφηση της τεχνητής νοημοσύνης μπορεί να αυξηθεί καθώς ο χρηματοπιστωτικός κλάδος υιοθετεί αναδυόμενες τεχνολογίες και το συμβούλιο θα διαδραματίσει ρόλο στην παρακολούθηση των «αναδυόμενων κινδύνων».
«Η υποστήριξη της υπεύθυνης καινοτομίας σε αυτόν τον τομέα μπορεί να επιτρέψει στο χρηματοπιστωτικό σύστημα να αποκομίσει οφέλη όπως αυξημένη αποτελεσματικότητα, αλλά υπάρχουν επίσης υπάρχουσες αρχές και κανόνες για τη διαχείριση κινδύνου που θα πρέπει να εφαρμόζονται», είπε η Yellen.
Ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν εξέδωσε τον Οκτώβριο ένα εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη που επικεντρωνόταν σε μεγάλο βαθμό στις πιθανές επιπτώσεις της τεχνολογίας για την εθνική ασφάλεια και τις διακρίσεις.
Κυβερνήσεις και ακαδημαϊκοί σε όλο τον κόσμο έχουν εκφράσει ανησυχίες για την ραγδαία ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης, εν μέσω ηθικών ερωτημάτων που καλύπτουν το ατομικό απόρρητο, την εθνική ασφάλεια και την παραβίαση πνευματικών δικαιωμάτων.
Σε μια πρόσφατη έρευνα που διεξήχθη από ερευνητές του Πανεπιστημίου Στάνφορντ, οι εργαζόμενοι στον τομέα της τεχνολογίας που εμπλέκονται σε έρευνα τεχνητής νοημοσύνης προειδοποίησαν ότι οι εργοδότες τους δεν εφαρμόζουν ηθικές δικλείδες παρά τις δημόσιες δεσμεύσεις τους να δώσουν προτεραιότητα στην ασφάλεια.
Την περασμένη εβδομάδα, οι υπεύθυνοι χάραξης πολιτικής της Ευρωπαϊκής Ένωσης συμφώνησαν σε νομοθεσία ορόσημο που θα απαιτεί από τους προγραμματιστές τεχνητής νοημοσύνης να αποκαλύπτουν δεδομένα που χρησιμοποιούνται για την εκπαίδευση των συστημάτων τους και τη διεξαγωγή δοκιμών προϊόντων υψηλού κινδύνου .
Στην τελευταία ετήσια έκθεσή του, το Συμβούλιο Εποπτείας Χρηματοπιστωτικής Σταθερότητας - FSOC, δήλωσε ότι η αυξανόμενη χρήση της τεχνητής νοημοσύνης στις χρηματοπιστωτικές υπηρεσίες είναι μια «τρωτότητα» που πρέπει να παρακολουθείται.
Ενώ η τεχνητή νοημοσύνη προσφέρει την υπόσχεση μείωσης του κόστους, βελτίωσης της αποδοτικότητας, εντοπισμού πιο περίπλοκων σχέσεων και βελτίωσης της απόδοσης και της ακρίβειας, μπορεί επίσης να «εισαγάγει ορισμένους κινδύνους, συμπεριλαμβανομένων των κινδύνων ασφάλειας και ευρωστίας, όπως οι κίνδυνοι στον κυβερνοχώρο και τα μοντέλα», ανέφερε η FSOC στην ετήσια έκθεση της. έκθεση που δόθηκε στη δημοσιότητα την Πέμπτη.
Η FSOC, η οποία ιδρύθηκε στον απόηχο της χρηματοπιστωτικής κρίσης του 2008 για τον εντοπισμό υπερβολικών κινδύνων στο χρηματοπιστωτικό σύστημα, είπε ότι οι εξελίξεις στην τεχνητή νοημοσύνη θα πρέπει να παρακολουθούνται για να διασφαλιστεί ότι οι μηχανισμοί εποπτείας «λογαριάζουν τους αναδυόμενους κινδύνους», ενώ διευκολύνουν την «αποτελεσματικότητα και την καινοτομία».
Οι αρχές πρέπει επίσης να «εμβαθύνουν την τεχνογνωσία και την ικανότητα» να παρακολουθούν το πεδίο, ανέφερε η FSOC.
Η υπουργός Οικονομικών των ΗΠΑ Janet Yellen, η οποία προεδρεύει του FSOC, είπε ότι η απορρόφηση της τεχνητής νοημοσύνης μπορεί να αυξηθεί καθώς ο χρηματοπιστωτικός κλάδος υιοθετεί αναδυόμενες τεχνολογίες και το συμβούλιο θα διαδραματίσει ρόλο στην παρακολούθηση των «αναδυόμενων κινδύνων».
«Η υποστήριξη της υπεύθυνης καινοτομίας σε αυτόν τον τομέα μπορεί να επιτρέψει στο χρηματοπιστωτικό σύστημα να αποκομίσει οφέλη όπως αυξημένη αποτελεσματικότητα, αλλά υπάρχουν επίσης υπάρχουσες αρχές και κανόνες για τη διαχείριση κινδύνου που θα πρέπει να εφαρμόζονται», είπε η Yellen.
Ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν εξέδωσε τον Οκτώβριο ένα εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη που επικεντρωνόταν σε μεγάλο βαθμό στις πιθανές επιπτώσεις της τεχνολογίας για την εθνική ασφάλεια και τις διακρίσεις.
Κυβερνήσεις και ακαδημαϊκοί σε όλο τον κόσμο έχουν εκφράσει ανησυχίες για την ραγδαία ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης, εν μέσω ηθικών ερωτημάτων που καλύπτουν το ατομικό απόρρητο, την εθνική ασφάλεια και την παραβίαση πνευματικών δικαιωμάτων.
Σε μια πρόσφατη έρευνα που διεξήχθη από ερευνητές του Πανεπιστημίου Στάνφορντ, οι εργαζόμενοι στον τομέα της τεχνολογίας που εμπλέκονται σε έρευνα τεχνητής νοημοσύνης προειδοποίησαν ότι οι εργοδότες τους δεν εφαρμόζουν ηθικές δικλείδες παρά τις δημόσιες δεσμεύσεις τους να δώσουν προτεραιότητα στην ασφάλεια.
Την περασμένη εβδομάδα, οι υπεύθυνοι χάραξης πολιτικής της Ευρωπαϊκής Ένωσης συμφώνησαν σε νομοθεσία ορόσημο που θα απαιτεί από τους προγραμματιστές τεχνητής νοημοσύνης να αποκαλύπτουν δεδομένα που χρησιμοποιούνται για την εκπαίδευση των συστημάτων τους και τη διεξαγωγή δοκιμών προϊόντων υψηλού κινδύνου .
Δεν υπάρχουν σχόλια
Δημοσίευση σχολίου