Quand le cycle de l'IA pourra-t-il revenir ! Récemment, j'ai suivi quelques projets d'IA, 👇 celui-ci a également organisé un événement sur @KaitoAI, vous pouvez jeter un œil ! Le projet @inference_labs a levé environ 760 000 dollars ! C'est pas mal ! Inference Labs @inference_labs construit une infrastructure de raisonnement AI fiable, la technologie clé est ce qu'on appelle la Proof of Inference : c'est-à-dire qu'elle fournit une preuve cryptographique à connaissance nulle pour les résultats de raisonnement AI, permettant à chaque décision AI d'être vérifiée de manière indépendante sans divulguer le modèle, les données ou la logique interne. @inference_labs touche vraiment au cœur du paradoxe actuel de l'IA qui passe à la phase d'infrastructure : ce n'est pas "peut-on l'utiliser", mais "peut-on lui faire confiance". Lorsque l'IA commence à participer aux décisions financières, de gouvernance et de données, le raisonnement en boîte noire devient inacceptable, la capacité de vérification doit être inhérente au système lui-même. Inference Labs @inference_labs introduit la preuve de raisonnement, intégrant la preuve à connaissance nulle dans chaque sortie AI, rendant les résultats non seulement utilisables, mais aussi vérifiables, auditables et responsables, tout en préservant la confidentialité et la sécurité du modèle. Ce n'est pas un emballage pour l'IA, mais une reconstruction de la source de confiance, passant de la marque, des paramètres et de l'autorité, à la mathématique et aux preuves. Si l'on dit que l'IA du passé reposait sur la "confiance", alors la preuve de raisonnement permet à l'IA de devenir "vérifiable". Ce pas n'est pas bruyant, mais il est crucial pour l'évolution à long terme d'une IA fiable. #inference #KaitoYap @KaitoAI