Messages de SourireDeLune

Le 17 novembre 2024 à 14:09:28 :
Fonctionnaire dans le territorial (adjoint adm territorial), en C ou en B, j'ai passé un concours C récemment, je cherche toujours du taffe. Par contre A ça peut être stressant, t'as la pression des élus il me semble (dans les petites villes du moins).

Sinon j'avais été en CDD en préfecture, en tant qu'agent d'accueil, c'était un peu stressant car il y avait quasiment toujours des usagers énervés.

T'es pas automatiquement fonctionnaire et rémunéré après avoir passé le concours ? Pourquoi tu cherches du taff ?

Le 14 octobre 2024 à 23:10:54 :

Le 14 octobre 2024 à 23:10:08 Soda_Au_Sucre a écrit :
Ca vaut que 800 balles un bébé? :(

Non là c'est vraiment un bon prix.

D'habitude tu trouve pas à moins de 2k

Nimporte quoi, de 1 les organes sont pas viable pour des greffs, de 2 il est généralement utilisé à Usage Unique (à bon entendeur)... C'est pas 2k pas dans ces pays là tu n'imagines pas à quel point c'est facile de trouver un bébé

Le 24 juin 2024 à 17:12:12 :
up

Il lui on demandé des questions sur des outils de bases, c'est loin d'être trivial quand tu n'es pas préparer mais c'est humiliant, imagine le jury lui dit: "Monsieur, ça fait 5 ans que vous étudier les maths mais vous ne savez toujours pas ce qu'est une droite, il va falloir ouvrir un livre un jour"
ou encore
" Monsieur, vous me répéter que l'aire est une mesure d'une surface mais vous êtes incapable de me dire ce qu'est une mesure"
Moi aussi parfois j'ai vraiment du mal à bien définir les outils cf ma laborieuse construction d'une droite plus haut.

Pourquoi ça t'intéresse tu passes les oraux ?

Le 24 juin 2024 à 16:57:47 :

Le 24 juin 2024 à 16:55:17 :
Pour ta gouverne une droite au sens géométrique c'est En géométrie affine :
Un sous-ensemble d'un espace affine qui est invariant sous l'action des translations.

Un plan ne vérifie pas cette définition ?
Ou même, l'espace affine tout entier.

Ah oui je me suis trompé en plus ><

Le 24 juin 2024 à 17:00:21 :
C'est un R espace vectoriel de dimension 1 mais bon tu t'imagines mal sortir ça à un collégien.
Puis c'est pas très satisfaisant, un peu comme le fait de définir 0 comme étant l'ensemble vide

Ne construit t-on pas les droites avant de construire les ev ? :hap:
Blague à part, j'ai sortie la définition au sens Bourbaki pour en rajouter un peu, mais je pense que l'idée des jurys est de savoir si tu as des théorèmes et définitions solide dans ta propre visualisation du thème et si tu es capables de les vulgarisés à tes élèves. Après c'est un examen oral, et comme l'écrit c'est soumis une variance au niveau de la performance et de la note final.
Donc bon on sait jamais comment ça peut se passer.

Pour ta gouverne une droite au sens géométrique c'est En géométrie affine :
Un sous-ensemble d'un espace affine qui est invariant sous l'action des translations.

OP tu avais des livres ? Je viens d'apprendre qu'on peut ramener des livres (je passe en fin de semaine). Normalement si t'as pris des bons livres 2h30 de préparation c'est suffisant pour être vraiment solide sur le thème en question.
Parce que sinon tu te retrouves à faire un plan détailler sur la géométrie et à la fin quand le jury te demande qu'est ce qu'une surface, une aire, une mesure .... tu commences à bégayer...

Et après toi passe Corentin qui ramène sa valise de livre :
https://www.bibmath.net/forums/viewtopic.php?id=17206
Il est alors incollable sur les définitions et les démonstrations qu'il vient de réviser pendant 2h30 avec ses livres de *Géométrie pour le Capes* qui a été renommer *Géométrie Licence Capes Agrégation* pour pouvoir passer à travers le jury [ref Yves Ladegaillerie Edition Ellipses].

Bref cet examen c'est surtout comprendre l'esprit de l'épreuve (qu'est ce qu'un Plan détailler personne ne sait vraiment, quelles sont les capacités évaluées surement les codes de l'éducation Nat et la manière de construire un cours solide mathématiquement mais c'est pas écrit noir sur blanc).
Bref moi aussi j'y vais un peu les mains dans les poches, (mais j'ai quand même chercher à comprendre ce qu'on attendais de moi, sans trop savoir si j'ai réussi ).
On verra si ça passe.

Le 10 juin 2024 à 10:39:46 :
Dans ma commune de la petite couronne du 94, le vote RN a été majoritairehttps://image.noelshack.com/fichiers/2022/15/3/1649885147-bardellax-lun2.pngJe suis à l'Est du département

Tu vis ou ? Saint-Maur-des-Fossés ?

Bon alors voici le code sans coquilles:
https://image.noelshack.com/fichiers/2018/10/1/1520256134-risitasue2.png

import numpy as np # linear algebra
import pandas as pd # data processing, CSV file I/O (e.g. pd.read_csv)
import random
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.callbacks import ModelCheckpoint
from sklearn.model_selection import train_test_split

  1. Création de valeurs x dans l'intervalle de 1 à 20

x_values = np.linspace(1, 20, 1000)

  1. Répétition des valeurs de x_values pour former 1000 lignes

x_df = pd.DataFrame(np.tile(x_values, (100000, 1)))

functions = [np.cos, np.sin, lambda x: 1/x, np.log, lambda x: x, np.sqrt]
nombre_operations = 10

  1. Appliquer votre fonction à chaque ligne du DataFrame

def appliquer_fonction(row):
selected_functions = np.random.choice(functions, nombre_operations)
selected_operations = np.random.choice(['+', '-', '*'], nombre_operations-1)
result = selected_functions[0](row)
for i in range(1, nombre_operations):
if selected_operations[i-1] == '+':
result += selected_functions[i](row)
elif selected_operations[i-1] == '-':
result -= selected_functions[i](row)
elif selected_operations[i-1] == '*':
result *= selected_functions[i](row)
return result

resultats = x_df.apply(appliquer_fonction, axis=1)

  1. Création du DataFrame final avec les résultats

df = pd.DataFrame(resultats.values.tolist(), columns=["Col_" + str(i) for i in range(1, 1001)])

df = df[(df < 10_000) & (df > -10_000)].dropna()

  1. Calculer les valeurs minimales et maximales pour l'ensemble du DataFrame

min_val = df.min().min()
max_val = df.max().max()

print(min_val)
print(max_val)

  1. Définir une fonction pour appliquer la normalisation Min-Max standardisée par rapport à ces valeurs globales

def min_max_standard_global(row):
return (row - min_val) / (max_val - min_val)

df = df.apply(min_max_standard_global, axis=1)

  1. Supposons que votre DataFrame s'appelle df et contient les données
  2. X représentant les 500 premières colonnes et y représentant les 500 dernières colonnes
  1. Séparation des données en features (X) et target (y)

X = df.iloc[:, :500].values
y = df.iloc[:, 500:].values

  1. Division des données en ensembles d'entraînement et de test

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

  1. Définition d'une fonction de perte personnalisée normalisée par rapport aux valeurs vraies du batch

def custom_loss(y_true, y_pred):
# Calcul de la perte absolue moyenne (MAE)
mae = tf.reduce_mean(tf.abs(y_true - y_pred))

# Normalisation par rapport à la moyenne des valeurs vraies du batch
y_mean = tf.reduce_mean(y_true)
normalized_loss = mae / (y_mean + 1e-7) # Ajout d'une petite valeur pour éviter une division par zéro

return normalized_loss

  1. Création du modèle MLP avec TensorFlow

model = tf.keras.Sequential([
tf.keras.layers.Dense(500, activation='relu', input_shape=(500,)),
tf.keras.layers.BatchNormalization(), # Couche de normalisation
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu') # Couche de sortie avec 500 neurones pour prédire les 500 valeurs
])

  1. Compilation du modèle

model.compile(optimizer='adam', loss=custom_loss)

  1. Entraînement du modèle avec le rappel

model.fit(X_train, y_train, epochs=5, batch_size=32, validation_split=0.1)

  1. Sélectionner une ligne aléatoire des données de test

index_ligne_aleatoire = random.randint(0, len(X_test) - 1)
x_aleatoire = X_test[index_ligne_aleatoire]
y_true_aleatoire = y_test[index_ligne_aleatoire]

  1. Prédire les valeurs correspondantes avec le modèle

predictions_aleatoires = model.predict(np.array([x_aleatoire]))

  1. Créer une grille de sous-graphiques avec 2 lignes et 1 colonne

fig, axs = plt.subplots(2, 1, figsize=(8, 10))

  1. Premier sous-graphique : Vraies valeurs (y_true)

axs[0].plot(y_true_aleatoire, label='Vraies valeurs (y_true)')
axs[0].set_xlabel('Indice de la colonne')
axs[0].set_ylabel('Valeur')
axs[0].set_title('Vraies valeurs pour la ligne aléatoire')
axs[0].legend()

  1. Deuxième sous-graphique : Vraies valeurs (y_true) et Prédictions du modèle

axs[1].plot(y_true_aleatoire, label='Vraies valeurs (y_true)')
axs[1].plot(predictions_aleatoires.flatten(), label='Prédictions du modèle')
axs[1].set_xlabel('Indice de la colonne')
axs[1].set_ylabel('Valeur')
axs[1].set_title('Vraies valeurs vs. Prédictions pour la ligne aléatoire')
axs[1].legend()

plt.tight_layout()
plt.show()

ah et petite erreur à la ligne de normalisation c'est :

df = df.apply(lambda row: (row - row.min()) / (row.max() - row.min()), axis=1)

Ah et je n'ai pas encore fiat l'état de l'art sur le sujet mais ca viendrahttps://image.noelshack.com/fichiers/2018/27/4/1530827992-jesusreup.png
Bordel la faute sur mon titre :
"Essaye d'entrer dans la légende" :pf:

Bonjour,
C'est un peu ambitieux mais je suis persuadé que le forum pourrait écrire un article scientifique et le publier dans une revue scientifique.
https://image.noelshack.com/fichiers/2016/41/1476642727-picsart-10-16-08-28-39.png
Bon, bien sur il faut choisir un bon sujet (assez empirique pour qu'il soit accessible à la plupart des masters scientifiques du forum mais aussi assez théorique pour permettre à toute l'originalité du forum de s'exprimer).

Et quoi de mieux que les IA ?
... en plus ce buzz word est à la modehttps://image.noelshack.com/fichiers/2018/27/4/1530827992-jesusreup.png

L'idée ? Construire une nouvelle architecture plus performante que les modèles actuelles pour la prédiction de fonctions continues (infiniment dérivable de préférence ~ ) .

On commence par notre générateur de fonctions continues

  1. Création de valeurs x dans l'intervalle de 1 à 20

x_values = np.linspace(1, 20, 1000)

  1. Répétition des valeurs de x_values pour former 1000 lignes

x_df = pd.DataFrame(np.tile(x_values, (10000, 1)))

functions = [np.cos, np.sin, lambda x: 1/x, np.log, lambda x: x, np.sqrt]
nombre_operations = 10

  1. Appliquer votre fonction à chaque ligne du DataFrame

def appliquer_fonction(row):
selected_functions = np.random.choice(functions, nombre_operations)
selected_operations = np.random.choice(['+', '-', '*'], nombre_operations-1)
result = selected_functions[0](row)
for i in range(1, nombre_operations):
if selected_operations[i-1] == '+':
result += selected_functions[i](row)
elif selected_operations[i-1] == '-':
result -= selected_functions[i](row)
elif selected_operations[i-1] == '*':
result *= selected_functions[i](row)
return result

resultats = x_df.apply(appliquer_fonction, axis=1)

  1. Création du DataFrame final avec les résultats

df = pd.DataFrame(resultats.values.tolist(), columns=["Col_" + str(i) for i in range(1, 1001)])

df_normalized = (df - df.min()) / (df.max() - df.min())
df = df.dropna()

  1. Affichage des premières lignes du DataFrame

df

L'objectif étant de prédire les 500 prochaines valeur de la fonction à partir des 500 premières observations:

from sklearn.model_selection import train_test_split

  1. Supposons que votre DataFrame s'appelle df et contient les données
  2. X représentant les 500 premières colonnes et y représentant les 500 dernières colonnes
  1. Séparation des données en features (X) et target (y)

X = df.iloc[:, :500].values
y = df.iloc[:, 500:].values

  1. Division des données en ensembles d'entraînement et de test

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

Bien sûr, on pourra changer le générateur pour avoir quelque chose de plus générale.