Le 17 novembre 2024 à 14:09:28 :
Fonctionnaire dans le territorial (adjoint adm territorial), en C ou en B, j'ai passé un concours C récemment, je cherche toujours du taffe. Par contre A ça peut être stressant, t'as la pression des élus il me semble (dans les petites villes du moins).Sinon j'avais été en CDD en préfecture, en tant qu'agent d'accueil, c'était un peu stressant car il y avait quasiment toujours des usagers énervés.
T'es pas automatiquement fonctionnaire et rémunéré après avoir passé le concours ? Pourquoi tu cherches du taff ?
Le 14 octobre 2024 à 23:10:54 :
Le 14 octobre 2024 à 23:10:08 Soda_Au_Sucre a écrit :
Ca vaut que 800 balles un bébé?Non là c'est vraiment un bon prix.
D'habitude tu trouve pas à moins de 2k
Nimporte quoi, de 1 les organes sont pas viable pour des greffs, de 2 il est généralement utilisé à Usage Unique (à bon entendeur)... C'est pas 2k pas dans ces pays là tu n'imagines pas à quel point c'est facile de trouver un bébé
Le 24 juin 2024 à 17:12:12 :
up
Il lui on demandé des questions sur des outils de bases, c'est loin d'être trivial quand tu n'es pas préparer mais c'est humiliant, imagine le jury lui dit: "Monsieur, ça fait 5 ans que vous étudier les maths mais vous ne savez toujours pas ce qu'est une droite, il va falloir ouvrir un livre un jour"
ou encore
" Monsieur, vous me répéter que l'aire est une mesure d'une surface mais vous êtes incapable de me dire ce qu'est une mesure"
Moi aussi parfois j'ai vraiment du mal à bien définir les outils cf ma laborieuse construction d'une droite plus haut.
Pourquoi ça t'intéresse tu passes les oraux ?
Le 24 juin 2024 à 16:57:47 :
Le 24 juin 2024 à 16:55:17 :
Pour ta gouverne une droite au sens géométrique c'est En géométrie affine :
Un sous-ensemble d'un espace affine qui est invariant sous l'action des translations.Un plan ne vérifie pas cette définition ?
Ou même, l'espace affine tout entier.
Ah oui je me suis trompé en plus ><
Le 24 juin 2024 à 17:00:21 :
C'est un R espace vectoriel de dimension 1 mais bon tu t'imagines mal sortir ça à un collégien.
Puis c'est pas très satisfaisant, un peu comme le fait de définir 0 comme étant l'ensemble vide
Ne construit t-on pas les droites avant de construire les ev ?
Blague à part, j'ai sortie la définition au sens Bourbaki pour en rajouter un peu, mais je pense que l'idée des jurys est de savoir si tu as des théorèmes et définitions solide dans ta propre visualisation du thème et si tu es capables de les vulgarisés à tes élèves. Après c'est un examen oral, et comme l'écrit c'est soumis une variance au niveau de la performance et de la note final.
Donc bon on sait jamais comment ça peut se passer.
OP tu avais des livres ? Je viens d'apprendre qu'on peut ramener des livres (je passe en fin de semaine). Normalement si t'as pris des bons livres 2h30 de préparation c'est suffisant pour être vraiment solide sur le thème en question.
Parce que sinon tu te retrouves à faire un plan détailler sur la géométrie et à la fin quand le jury te demande qu'est ce qu'une surface, une aire, une mesure .... tu commences à bégayer...
Et après toi passe Corentin qui ramène sa valise de livre :
https://www.bibmath.net/forums/viewtopic.php?id=17206
Il est alors incollable sur les définitions et les démonstrations qu'il vient de réviser pendant 2h30 avec ses livres de *Géométrie pour le Capes* qui a été renommer *Géométrie Licence Capes Agrégation* pour pouvoir passer à travers le jury [ref Yves Ladegaillerie Edition Ellipses].
Bref cet examen c'est surtout comprendre l'esprit de l'épreuve (qu'est ce qu'un Plan détailler personne ne sait vraiment, quelles sont les capacités évaluées surement les codes de l'éducation Nat et la manière de construire un cours solide mathématiquement mais c'est pas écrit noir sur blanc).
Bref moi aussi j'y vais un peu les mains dans les poches, (mais j'ai quand même chercher à comprendre ce qu'on attendais de moi, sans trop savoir si j'ai réussi ).
On verra si ça passe.
Le 10 juin 2024 à 10:39:46 :
Dans ma commune de la petite couronne du 94, le vote RN a été majoritairehttps://image.noelshack.com/fichiers/2022/15/3/1649885147-bardellax-lun2.png Je suis à l'Est du département
Tu vis ou ? Saint-Maur-des-Fossés ?
Bon alors voici le code sans coquilles:
import numpy as np # linear algebra
import pandas as pd # data processing, CSV file I/O (e.g. pd.read_csv)
import random
import matplotlib.pyplot as plt
import tensorflow as tf
from tensorflow.keras.callbacks import ModelCheckpoint
from sklearn.model_selection import train_test_split
x_values = np.linspace(1, 20, 1000)
x_df = pd.DataFrame(np.tile(x_values, (100000, 1)))
functions = [np.cos, np.sin, lambda x: 1/x, np.log, lambda x: x, np.sqrt]
nombre_operations = 10
def appliquer_fonction(row):
selected_functions = np.random.choice(functions, nombre_operations)
selected_operations = np.random.choice(['+', '-', '*'], nombre_operations-1)
result = selected_functions[0](row)
for i in range(1, nombre_operations):
if selected_operations[i-1] == '+':
result += selected_functions[i](row)
elif selected_operations[i-1] == '-':
result -= selected_functions[i](row)
elif selected_operations[i-1] == '*':
result *= selected_functions[i](row)
return result
resultats = x_df.apply(appliquer_fonction, axis=1)
df = pd.DataFrame(resultats.values.tolist(), columns=["Col_" + str(i) for i in range(1, 1001)])
df = df[(df < 10_000) & (df > -10_000)].dropna()
min_val = df.min().min()
max_val = df.max().max()
print(min_val)
print(max_val)
def min_max_standard_global(row):
return (row - min_val) / (max_val - min_val)
df = df.apply(min_max_standard_global, axis=1)
X = df.iloc[:, :500].values
y = df.iloc[:, 500:].values
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
def custom_loss(y_true, y_pred):
# Calcul de la perte absolue moyenne (MAE)
mae = tf.reduce_mean(tf.abs(y_true - y_pred))
# Normalisation par rapport à la moyenne des valeurs vraies du batch
y_mean = tf.reduce_mean(y_true)
normalized_loss = mae / (y_mean + 1e-7) # Ajout d'une petite valeur pour éviter une division par zéro
return normalized_loss
model = tf.keras.Sequential([
tf.keras.layers.Dense(500, activation='relu', input_shape=(500,)),
tf.keras.layers.BatchNormalization(), # Couche de normalisation
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu'),
tf.keras.layers.Dense(500, activation='relu') # Couche de sortie avec 500 neurones pour prédire les 500 valeurs
])
model.compile(optimizer='adam', loss=custom_loss)
model.fit(X_train, y_train, epochs=5, batch_size=32, validation_split=0.1)
index_ligne_aleatoire = random.randint(0, len(X_test) - 1)
x_aleatoire = X_test[index_ligne_aleatoire]
y_true_aleatoire = y_test[index_ligne_aleatoire]
predictions_aleatoires = model.predict(np.array([x_aleatoire]))
fig, axs = plt.subplots(2, 1, figsize=(8, 10))
axs[0].plot(y_true_aleatoire, label='Vraies valeurs (y_true)')
axs[0].set_xlabel('Indice de la colonne')
axs[0].set_ylabel('Valeur')
axs[0].set_title('Vraies valeurs pour la ligne aléatoire')
axs[0].legend()
axs[1].plot(y_true_aleatoire, label='Vraies valeurs (y_true)')
axs[1].plot(predictions_aleatoires.flatten(), label='Prédictions du modèle')
axs[1].set_xlabel('Indice de la colonne')
axs[1].set_ylabel('Valeur')
axs[1].set_title('Vraies valeurs vs. Prédictions pour la ligne aléatoire')
axs[1].legend()
plt.tight_layout()
plt.show()
ah et petite erreur à la ligne de normalisation c'est :
df = df.apply(lambda row: (row - row.min()) / (row.max() - row.min()), axis=1)
Bonjour,
C'est un peu ambitieux mais je suis persuadé que le forum pourrait écrire un article scientifique et le publier dans une revue scientifique.
Bon, bien sur il faut choisir un bon sujet (assez empirique pour qu'il soit accessible à la plupart des masters scientifiques du forum mais aussi assez théorique pour permettre à toute l'originalité du forum de s'exprimer).
Et quoi de mieux que les IA ?
... en plus ce buzz word est à la mode
L'idée ? Construire une nouvelle architecture plus performante que les modèles actuelles pour la prédiction de fonctions continues (infiniment dérivable de préférence ~ ) .
On commence par notre générateur de fonctions continues
x_values = np.linspace(1, 20, 1000)
x_df = pd.DataFrame(np.tile(x_values, (10000, 1)))
functions = [np.cos, np.sin, lambda x: 1/x, np.log, lambda x: x, np.sqrt]
nombre_operations = 10
def appliquer_fonction(row):
selected_functions = np.random.choice(functions, nombre_operations)
selected_operations = np.random.choice(['+', '-', '*'], nombre_operations-1)
result = selected_functions[0](row)
for i in range(1, nombre_operations):
if selected_operations[i-1] == '+':
result += selected_functions[i](row)
elif selected_operations[i-1] == '-':
result -= selected_functions[i](row)
elif selected_operations[i-1] == '*':
result *= selected_functions[i](row)
return result
resultats = x_df.apply(appliquer_fonction, axis=1)
df = pd.DataFrame(resultats.values.tolist(), columns=["Col_" + str(i) for i in range(1, 1001)])
df_normalized = (df - df.min()) / (df.max() - df.min())
df = df.dropna()
df
L'objectif étant de prédire les 500 prochaines valeur de la fonction à partir des 500 premières observations:
from sklearn.model_selection import train_test_split
X = df.iloc[:, :500].values
y = df.iloc[:, 500:].values
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
Bien sûr, on pourra changer le générateur pour avoir quelque chose de plus générale.