Le prochaine chose: Détecter les émotions et les expressions humaines
Est-ce l'avenir ? Les robots émotionnellement
Hello 👋
Bienvenue dans édition #003 de Accelerate With AI ! On est désormais 290 abonnés dans cette newsletter. Que tu sois là depuis le début, ou que tu viennes de me découvrir, merci à tous de me lire ❤️.

Si ce n’est pas déjà fait, tu peux aussi :
Te rendre visible en sponsorisant cette newsletter.
c’est parti
Merci au sponsor de la newletter : Anka Pay
J'ai découvert trop tard Anka Pay.
En décembre passe, je suis auto-entrepreneur et je ne peux pas vous exprimez à quel point j'aurai aimé connaître Anka Pay à ce moment là. Bien que mon activité de freelance soit simple. C’était une galère pour encaisser depuis Afrique, je ne connais aucun entrepreneur qui ne se soit pas arraché les cheveux avec les solutions de paiements, encore pire, si vous êtes en Afrique – moi le premier.
Anka Pay est la solution de paiement simple qui te permet d’etre payé partout dans le monde, puis de retirer en devise locale. J’ai un faible , pour la génération le lien de paiement en 20 secondes et le paiement en 3x. Tout y est!
Au programme
Progrès de l'IA : Les modèles comme GPT-4 et Llama comprennent le texte, mais pas les émotions.
L'importance de l'intelligence émotionnelle : Le prochain saut de l'IA pourrait venir de la compréhension des émotions.
Alan Cowen et Hume AI : L'IA EVI lit le ton, le rythme et les expressions pour discerner les émotions.
Limites du texte : Le texte seul ne suffit pas pour une communication efficace ; les signaux non verbaux sont essentiels.
Exemples d'utilisation : Les amis IA et les soins aux personnes âgées pourraient bénéficier de l'intelligence émotionnelle.
L'importance de l'intelligence émotionnelle : Le prochain saut de l'IA pourrait venir de la compréhension des émotions.
Le domaine de l'IA progresse avec des données incomplètes. Les modèles génératifs comme Claude, Gemini, GPT-4 et Llama comprennent le texte, mais pas les émotions.
Ils ne peuvent pas traiter le ton de voix, le rythme du discours ou les expressions faciales. Pour avancer, ils doivent apprendre à reconnaître ces signaux non verbaux.
L'industrie se concentre sur l'agrandissement des modèles, mais le prochain saut pourrait venir de l'enseignement de l'intelligence émotionnelle.
L’interet grandissant de Mark Zuckerberg, et des millions en financements pour les startups montrent que des progrès sont possibles.
Une grande partie du cerveau humain comprend les émotions et les expressions, c'est une modalité propre a Homme, a dit Zuckerberg à Dwarkesh Patel.
Alan Cowen, ancien de Meta et Google, dirige Hume AI. Son IA, EVI, lit le ton, le timbre et le rythme de votre voix, ainsi que vos expressions faciales, pour discerner vos émotions.
Alan Cowen et Hume AI : L'IA EVI lit le ton, le rythme et les expressions pour discerner les émotions.
EVI réagit à vos émotions — joie, colère, surprise. Par exemple, si vous criez, il deviendra timide et tentera de calmer la situation. Ses calculs sont affichés à l'écran, indiquant ce qu'il lit et comment il réagit. Les interactions avec EVI durent en moyenne dix minutes, selon Hume.
"Chaque mot porte des détails dans son ton, son rythme et son timbre," a dit Cowen lors de son passage sur le podcast Big Technology.
On peut prédire si quelqu'un est déprimé ou atteint de Parkinson, ou si un appel au service client est bon ou mauvais.
En plus, Hume a levé $50 millions en mars et offre déjà une API pour lire les émotions dans les voix.
Limites du texte : Le texte seul ne suffit pas pour une communication efficace ; les signaux non verbaux sont essentiels.
Le texte est un moyen limité de communication. Pour les interactions complexes, nous préférons les appels ou les messages vocaux. Les assistants vocaux comme Siri et Alexa échouent parce qu'ils éliminent les émotions en transcrivant. Les bots IA peuvent s'améliorer en intégrant plus d'informations émotionnelles.
Pour programmer l'intelligence émotionnelle, Hume a utilisé des plateformes de sondage pour recueillir des données sur les émotions et les expressions faciales.
"Nous avons fait enregistrer et évaluer leurs expressions par plus d'un million de personnes," a dit Cowen. "Nous cherchons des consistances entre les différentes personnes."
Exemples d'utilisation : Les amis IA et les soins aux personnes âgées pourraient bénéficier de l'intelligence émotionnelle.
Aujourd'hui, la technologie de Hume peut prédire les réactions et moduler ses réponses en conséquence. "Ce modèle comprend et prédit les expressions," a dit Cowen. **"Il peut prédire si vous allez rire ou être frustré."**
L'intelligence émotionnelle pourrait rendre les amis ou compagnons AI plus agréables. Les soins aux personnes âgées pourraient s'améliorer avec une AI attentive aux problèmes quotidiens et présente comme compagnon.
Cowen veut intégrer l'AI dans les produits pour lire les discours, émotions et expressions et guider l'utilisateur. Imaginez une application bancaire qui ajuste votre plan financier au fur et à mesure que vous parlez. **"Le produit devrait faire partie de la conversation,"** a dit Cowen.
Les chercheurs en IA parlent de heurter un mur de ressources. L'innovation des modèles semble la solution à court terme. Programmer l'intelligence émotionnelle dans l'IA montre une voie vers une intelligence plus profonde dans cette technologie déjà impressionnante.
Voilà, c’est tout pour aujourd’hui ❤️.
Paix et Amour, votre hôte Kam
Un grand merci aux entrepreneurs de la communauté qui ont soutenu cette édition :
Les Persos de Maud, la newsletter qui décrypte les mécanismes du personal branding pour vous aider à bâtir votre Brand, chaque semaine.
La recette d’une LOVE Brand, la newsletter qui te partage les meilleures stratégies marketing pour dépasser 99% de ta concurrence
Les Recos d'Emilie, la newsletter qui décrypte les stratégies de contenu qui cartonnent.
Si tu veux faire partie des prochains sponsors de cette newsletter, tu trouveras toutes les infos en cliquant ici.

