[ad_1]
La vice-présidente Kamala Harris et de hauts responsables ministériels rencontreront les directeurs collectifs de Google, Microsoft, OpenAI et Anthropic à la Cabane Incolore davantage tard cette semaine comme pérorer de la technologie de l’affection artificielle (IA).
Reuter rapporte qu’au entredeux des inquiétudes croissantes au sujet de les réforme rapides de l’IA et les déguisement néfastes qu’elle-même pourrait actif sur le saturé nord-américain, les responsables ministériels souhaitent pérorer des problèmes liés aux produits et technologies de l’IA.
L’supplication aurait noté «l’expectative du responsable Biden accompagnant auxquels des industries comment la vôtre doivent s’fixer que à elles produits sont sûrs vis-à-vis de les aménager à la stipulation du découvert». En octobre inédit, la Cabane Incolore a publié un moyens décrivant cinq services qui, accompagnant elle-même, devrait viser la discernement, l’destination et le déploiement de systèmes automatisés comme barder le découvert des blessures potentiels produit de la technologie de l’IA.
Alors occasionnellement, le responsable Biden a fable percevoir qu’il addenda double relativement aux dangers potentiels de l’IApourtant que les industries, y assimilé celles invitées à croiser le vice-président, ont la obligation d’fixer la sûreté de à elles développements en objet d’IA.
L’IA a fable des totaux politiques eux-mêmes étape, plus Les républicains lancent une charlatanisme d’amorcé générée par l’IA au prix de le responsable le traitement inédit, et Les démocrates ont déposé un essai de loi hiémaux ceci exigerait que les publicités politiques divulguent l’destination de l’IA, ce que faisait la charlatanisme d’amorcé républicaine référencée.
Les obligatoires acteurs de l’distant technologique ne sont pas non davantage à l’antre des préoccupations internes au sujet de l’IA. Geoffrey Hinton, 75 ans, a passé une longue paragraphe de sa cirque à majorer des réseaux de neurones – le mode calcul qui sous-tend les modèles d’IA générative – et a occasionnellement démissionné de son fortin dans Google continuum en exubérant des doléance sur le gésine de sa vie. Donc que Hinton a quitté Google en paragraphe comme avive décrire impunément ses préoccupations au sujet de la technologie de l’IA et voir de ses dangers, il a affirmé que Google sézigue avait agi de facture animateur au sujet de l’IA.
La technologie de l’affection artificielle évolue davantage incessamment que le mode réglementaire ne peut regimber. Pendant, l’Accession occidentale vise à former extérieur au moins aux implications en objet de équitable d’bâtisseur des ensembles de situation que les industries utilisent comme majorer à elles modèles d’IA générative. En même temps que le extravagance sérieux d’Adobe Firefly, de abondant modèles génératifs, comment Midjourney et DALL-E, refusent de généraliser à elles ondes de situation et seraient construits sur des œuvres volées et protégées par le équitable d’bâtisseur. Le La loi révisée sur l’IA de l’UE vise à commander les industries à confier à elles ensembles de situationce qui ouvrirait sinon annulé alarme une caisse de Pandore légale comme les développeurs d’IA.
La Cabane Incolore ne semble pas se monopoliser sur les revendications de équitable d’bâtisseur comme le circonstance, pourtant est davantage préoccupée par les impacts potentiels de l’IA sur la vie intestine, la génération d’informations nuisibles et l’pécule.
Bloomberg rapporte que la Cabane Incolore s’sordide impartialement à la facture laquelle les industries utilisent l’IA comme conduire à elles salariés. Là-dedans un marchandise de blog sur le portéle Secrétariat de la habileté impartiale et technologique de la Cabane Incolore s’timorée du fable que la technologie de l’IA peut former appui sur les employés comme qu’ils utilisent des corvées dangereuses comme sacraliser les mesures contrôlées par l’IA, infirmer les verticaux des employés à la indépendance d’formulation et à la palabre commune et engager une ségrégation immodéré au prix de les employés – et probablement des rentrée interdits.
L’conduite Biden a impartialement appelé les histoires du découvert sur les contradictoires manières laquelle les technologies et les fonctions d’IA peuvent et doivent existence tenus responsables et sur la meilleure créer de barder les foule au prix de les blessures potentiels causés par l’IA. Il y a sinon annulé alarme des inquiétudes croissantes relativement à l’collision de l’IA sur la sûreté nationale et l’instruction.
Richesse paru : Photos inférieurement débauche via Depositphotos.
[ad_2]
Source_link