Cryptocurrencies

L’utilisation prudente et intelligente de l’intelligence artificielle par Apple peut sembler une annonce importante dans…

Elle est exprimée par Amazon Polly

L’utilisation prudente et intelligente de l’intelligence artificielle par Apple

La grande annonce faite cette semaine lors de la conférence WWDC d’Apple peut sembler décevante à première vue, mais c’est une décision très intelligente à y regarder de plus près : oui, nous avons enfin une calculatrice sur l’iPad une décennie après la première sortie de l’appareil.

La société évite également intelligemment la plupart des hallucinations, de la confidentialité, des promesses excessives et du manque de résultats en matière de battage médiatique qui affectent la plupart des produits d’IA (voir les récentes débâcles de l’IA auxquelles Adobe, Microsoft et Google ont été confrontés).

Au lieu de cela, Apple utilise des modèles dérivés compressés, open source et intégrés à l’appareil, qui échangent intelligemment les adaptateurs en cas de besoin et qui sont affinés pour se spécialiser dans une tâche particulière, qu’il s’agisse de résumés, de relectures ou de réponses automatisées.

L’idée est d’augmenter les chances de réussir la plupart des tâches d’IA, en particulier sur le même appareil, et bien sûr de fournir une raison impérieuse de mettre à niveau votre téléphone ou votre iPad.

Les requêtes plus difficiles utilisant des données anonymisées et cryptées sont envoyées vers un formulaire de taille moyenne sur les serveurs d’Apple (qui ne stocke pas les données) et les tâches plus complexes impliquant l’écriture ou le raisonnement artificiel sont envoyées à ChatGPT après lui avoir accordé l’autorisation. OpenAI ne peut pas non plus stocker vos données.

D’après les présentations, les aspects de confidentialité et de fonctionnalité semblent bien pensés, même si nous ne le saurons avec certitude qu’en septembre. Apple n’a pas construit le premier smartphone, mais ils en ont proposé l’une des meilleures versions avec l’iPhone. Il sera intéressant de voir si son approche prudemment optimiste de l’IA connaîtra un succès similaire.

L’IA de Google est toujours coincée dans la colle

Comme un serpent qui se mange la queue, il semble que tous ces articles sur la stupidité des réponses de Google AI Overview ont aggravé les réponses. Vous vous souvenez peut-être que Google a demandé aux utilisateurs de recherche de manger des pierres, que les cafards vivent dans des coqs et, surtout, que la colle est un bon moyen de coller du fromage sur une pizza.

Cette semaine, l’IA de Google a encore demandé aux utilisateurs d’ajouter deux cuillères à soupe de colle à leur pizza, citant comme source des reportages de Business Insider et The Verge – sur ses réponses incorrectes. La journaliste de Verge, Elizabeth Lobato, a écrit :

« Juste des trucs géniaux ici les gars. Chaque fois que quelqu’un comme moi signale une erreur d’IA chez Google, nous entraînons l’IA à se tromper.

Deux chercheurs d’OpenAI prédisent l’intelligence artificielle générale d’ici 3 ans

Leopold Aschenbrenner, le chercheur d’OpenAI qui a été licencié pour avoir divulgué des informations sur le manque de préparation de l’entreprise à l’intelligence artificielle générale, a abandonné une thèse de 165 pages sur le sujet. Il prédit que les modèles d’IA pourraient atteindre les capacités des chercheurs et des ingénieurs dans le domaine de l’intelligence artificielle (IA) humaine d’ici 2027, ce qui mènera inévitablement à la superintelligence à mesure qu’AGI développera la technologie elle-même. La prédiction est basée sur les progrès linéaires que nous avons observés dans le domaine de l’intelligence artificielle ces dernières années, même si les critiques affirment que la technologie pourrait atteindre un plafond à un moment donné.

Un autre ingénieur de recherche d’OpenAI, James Pechter, a écrit quelque chose de similaire : « Nous avons essentiellement résolu les modèles de construction du monde, avons passé 2 à 3 ans à réfléchir au Système 2 et 1 à 2 ans pour l’étoffer. Les deux derniers peuvent être réalisés simultanément. Il estime entre trois et cinq ans « pour quelque chose qui ressemble davantage à un agent incarné, généralement intelligent ».



Un scientifique français a parié un million de dollars que les titulaires d’un master comme ChatGPT ne mèneront pas à l’intelligence artificielle générale

Des experts en IA, dont Yann LeCun, scientifique en chef en IA, et Ben Goertzel, fondateur d’ASI, remettent en question la capacité des LLM à ouvrir la voie à l’intelligence artificielle générale. Le chercheur français en IA François Cholet a affirmé cette semaine sur le podcast de Dwarkesh Patel qu’OpenAI avait déjà retardé de « 5 à 10 ans » les progrès vers l’intelligence artificielle générale, parce qu’elle avait cessé de publier des recherches de pointe et parce que sa focalisation sur les MBA avait aspiré tout l’oxygène de l’intelligence artificielle. la chambre. .

Reprenant la métaphore de l’autoroute de LeCun, Cholet estime que les titulaires d’un diplôme LLM sont “une porte de sortie vers l’IA générale” et vient de lancer un prix ARC d’un million de dollars pour tout système d’IA capable de réussir le test d’abstraction et de raisonnement (ARC) de quatre ans. ) test. Pour voir s’il peut réellement s’adapter à de nouvelles idées et situations plutôt que de simplement remixer du contenu provenant du Web. Cholet estime que la plupart des normes actuelles testent simplement la mémorisation, domaine dans lequel les MBA excellent, plutôt que la capacité à gérer de manière créative de nouvelles idées et situations. C’est un débat philosophique intéressant : après tout, comme l’a insisté Patel, les humains ne mémorisent-ils pas, ne généralisent-ils pas ou n’extrapolent-ils pas principalement les choses ?

Le prix d’un million de dollars imite le défi paranormal d’un million de dollars lancé par le sceptique James Randi à quiconque peut prouver une activité paranormale. Cela n’a jamais été revendiqué et son objectif principal était de souligner le fait que les affirmations surnaturelles sont tout simplement absurdes. Cependant, l’objectif de Chollet semble être d’essayer de se concentrer sur des critères plus complets d’intelligence plutôt que de mémorisation. Chaque tâche du test peut être résolue par des humains, mais pas encore par l’IA.

Les LLM sont incapables de penser à de nouvelles choses

Une nouvelle recherche (à droite) soutient l’idée selon laquelle les LLM sont étonnamment stupides lorsqu’ils sont confrontés à des questions sur lesquelles les humains n’ont pas beaucoup écrit sur Internet.

La recherche conclut que malgré la réussite des examens du barreau et d’autres astuces partisanes, les étudiants actuels en LLM manquent de compétences de réflexion de base et que les normes actuelles ne parviennent pas à détecter correctement ces déficiences.

Les étudiants en LLM ont été confrontés à ce problème : « Alice a N frères, et elle a aussi M sœurs. Combien de sœurs Alice a-t-elle ?

Elle a conclu : « Bien que les humains puissent facilement les résoudre en faisant appel au bon sens (la bonne réponse est M+1), la plupart des programmes LLM testés, y compris GPT-3.5/4, Claude, Gemini, LLaMA, Mistral et autres, montrent un effondrement brutal. .» Lors de ses performances, il fournit souvent des réponses et des déductions dénuées de sens.

Les étudiants en LLM étaient également très confiants quant à leurs mauvaises réponses et ont fourni une explication détaillée les justifiant.

LeCun a souligné l’étude sur

Les LLM se trompent souvent sur les élections

Une étude de la startup d’analyse de données GroundTruthAI affirme que différentes versions de Google Gemini 1.0 Pro et ChatGPT (3,5 à 4o) donnent des informations incorrectes sur le vote et les élections américaines de 2024 dans plus d’un quart du temps.

Les chercheurs ont posé plusieurs fois 216 questions électorales et ont déterminé que Gemini 1.0 Pro répondait correctement seulement 57 % du temps, tandis que le meilleur modèle OpenAI (GPT-4o) répondait correctement 81 % du temps.

Les modèles se sont systématiquement trompés sur l’âge de Biden et Trump et ont été incapables de déterminer combien de jours il reste avant l’élection. Deux formulaires indiquaient à tort que les électeurs pouvaient s’inscrire le jour du scrutin en Pennsylvanie.

Google affirme que les chercheurs ont dû utiliser une API plutôt que l’interface publique, et Wired rapporte que les chatbots de Google et de Microsoft refusent désormais de répondre aux questions électorales.

Lire aussi

Caractéristiques

L’homme invisible dans le monde visible : comment la technologie blockchain peut offrir un nouvel espoir aux Rohingyas apatrides

Semaine des Arts

Remettre en question l’obsolescence : comment la technologie Blockchain peut redéfinir l’expression artistique

Les données d’entraînement à l’IA seront bientôt épuisées

Une étude évaluée par des pairs d’Epoch AI suggère que les entreprises technologiques épuiseront l’offre de données de formation à l’IA basées sur des textes accessibles au public entre 2026 et 2032.

“Il y a ici un sérieux goulot d’étranglement”, a déclaré Tamai Beciroğlu, co-auteur de l’étude. « Si vous commencez à surmonter ces limitations liées à la quantité de données dont vous disposez, vous ne pourrez plus vraiment faire évoluer vos modèles de manière efficace. »

Cependant, l’IA peut être entraînée sur des données vidéo, audio et synthétiques, et les entreprises semblent également disposées à supprimer les données privées. Les professeurs Angela Huiu Chang et S. Alex Yang dans le Sunday Times a déclaré que le modèle « gratuit » GPT 4o semble être un moyen pour OpenAI de collecter d’énormes quantités de données multimédia.

ChatGPT est efficace pour pirater les vulnérabilités du jour zéro

Il y a quelques mois, un groupe de chercheurs a montré que décrire les vulnérabilités d’un proxy GPT-4 lui permettait de compromettre une série de sites de test. Mais même s’il était efficace pour attaquer les vulnérabilités connues, ses performances étaient médiocres sur les vulnérabilités inconnues ou « zero-day ».

Les mêmes chercheurs ont depuis utilisé un agent de planification GPT-4 dirigeant une équipe de sous-agents pour tenter de découvrir des vulnérabilités inconnues ou des vulnérabilités zero-day sur les sites de test. Dans la nouvelle recherche, les agents d’IA ont pu exploiter 53 % des vulnérabilités zero-day sur les sites de test.

Le nouveau concurrent de Sora à Luma AI, Dream Machine

Luma AI a abandonné son nouveau générateur de texte et d’image en vidéo Dream Machine, et les influenceurs habituels de l’IA ont lancé de longs fils de discussion d’exemples très impressionnants en haute résolution.

Contrairement à Sora, le public peut en faire l’expérience par lui-même. Sur Reddit, les utilisateurs ont signalé qu’il fallait une heure ou deux pour produire quoi que ce soit (en raison de la surcharge du serveur) et que leurs résultats ne correspondaient pas au battage médiatique.

500 000 nouveaux millionnaires dans le domaine de l’intelligence artificielle

Si vous n’êtes pas encore millionnaire grâce au boom de l’IA, l’essayeriez-vous ? Selon le cabinet de conseil Capgemini, le nombre total de millionnaires aux États-Unis a bondi de 500 000 pour atteindre 7,4 millions. La richesse attribue cela au boom des actions d’IA.

La publication note que l’optimisme des investisseurs à l’égard de l’IA a conduit à une hausse du S&P 500 de 24 % l’année dernière, à un doublement de Tesla, à un bond de Meta de 194 % et à une croissance de Nvidia de 239 %. L’indice et l’indice Nasdaq, dominé par les actions des sociétés technologiques, ont enregistré des niveaux records cette année. Ce boom semble devoir se poursuivre, Goldman Sachs prévoyant que les investissements dans l’intelligence artificielle à l’échelle mondiale pourraient atteindre 200 milliards de dollars d’ici 2025.

Lire aussi

Caractéristiques

Bitcoin : un système de paiement pour le poker en ligne peer-to-peer par Satoshi Nakamoto

Caractéristiques

Éteint ou existant : la technologie Blockchain peut-elle préserver le patrimoine des populations menacées ?

Adobe et Microsoft repoussent les fonctionnalités de l’IA

Après la réaction des utilisateurs concernant les conditions de service d’Adobe, qui accordaient à l’entreprise de larges autorisations d’accès, de s’approprier le contenu des utilisateurs et éventuellement de former l’intelligence artificielle, l’entreprise a changé de cap. Il affirme désormais qu’il ne formera « jamais » l’IA générative sur le contenu des créateurs « et que nous n’envisagerons pas de telles pratiques ».

La controverse a commencé après que les créateurs de contenu se sont vu dire qu’ils devaient accepter les conditions d’Adobe sous peine de payer des frais équivalant à 50 % du coût annuel restant de l’abonnement.

Microsoft a également annulé sa fonction de rappel pour sa gamme de PC Copilot+ de marque AI. L’outil crée un historique de captures d’écran de tout ce que les utilisateurs font pour permettre à l’IA de les aider. Mais les experts en cybersécurité affirment que cette mine d’informations représente un énorme pot de miel pour les pirates. L’outil sera désormais désactivé par défaut, nécessitera l’accès à la biométrie et les données seront cryptées lorsque les utilisateurs ne seront pas connectés.

Andrew FentonAndrew Fenton

Andrew Fenton

Andrew Fenton, basé à Melbourne, est journaliste et rédacteur en chef spécialisé dans les crypto-monnaies et la blockchain. Il a travaillé comme écrivain de divertissement national pour News Corp Australia, SA Weekend en tant que journaliste de cinéma et The Melbourne Weekly.

Leave a Reply

Your email address will not be published. Required fields are marked *